Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Dava, Apple'ın bu materyalin yayılmasını önlemek için daha fazla çaba göstermemesi nedeniyle mağdurların travmalarını yeniden yaşamaya zorlandığını iddia ediyor. Apple, 2021 yılında bu sistemi duyurmuş, ancak güvenlik ve gizlilik savunucularının hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle bu planları uygulamayı bırakmıştı.

HÜKÜMET GÖZETİMİ ELEŞTİRİSİ
Apple, 2021 yılında Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer gruplardan toplanan dijital imzalar sonrasında kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit edecek bir sistem duyurmuştu. Ancak, güvenlik ve gizlilik savunucularının bu teknolojinin hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle bu planları rafa kaldırdı.

BİNLERCE MAĞDUR VAR
Dava, bir akrabası tarafından bebekken istismara uğrayan ve görüntüleri çevrimiçi olarak paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Kadın, hala neredeyse her gün bu görüntülere sahip olan birinin suçlandığına dair kolluk kuvvetlerinden bildirimler aldığını belirtti. Avukat James Marsh, bu davada tazminat almaya hak kazanabilecek potansiyel 2.680 mağdur olduğunu söyledi.

Yunanlı Prof. Konstantinos Philis'in Kıbrıs endişesi: Cumhurbaşkanı Erdoğan haritayı değiştirmeye çalışıyor! Yunanlı Prof. Konstantinos Philis'in Kıbrıs endişesi: Cumhurbaşkanı Erdoğan haritayı değiştirmeye çalışıyor!

Apple, TechCrunch'a yaptığı açıklamada, bu suçlarla mücadele etmek için güvenlik ve gizlilikten ödün vermeden yenilikler yapmaya devam ettiklerini belirtti. Ağustos ayında, 9 yaşındaki bir kız çocuğu ve vasisi, Apple'ı iCloud'da CSAM'ı ele almamakla suçlayarak dava açmıştı.

Kaynak: HABERLER