Apple Fotoğrafları Analiz Etme Olayına Açıklık Getirdi

Cupertinolu Apple çocuk istismarının önüne geçmek için fotoğrafları analiz edeceğini açıklamıştı. Bu konuya bugün açıklık getirildi.
Çocuk Cinsel İstismar Fotoğrafları (CSAM) tespit sistemiyle ilgili bir haftalık eleştiriden sonra Apple, bugün yaptığı açıklamada, yalnızca çeşitli ülkelerdeki veri merkezleri tarafından etiketlenmiş görüntüleri arayacağını söyledi. Başlangıçta Cupertinolu teknoloji devin, iOS işletim sistemindeki bir kişiyi doğrulaması ve muhtemelen yetkililere bildirmesi için bildirmeden önce bir telefonda veya bilgisayarda kaç tane eşleşen görüntünün bulunması gerektiğini açıklamamıştı.
Apple 30 adet fotoğraf analiz edilecek
Bugün ise gizlilik politikası ile eleştirilen Apple’ın, başlangıç olarak iPhone, iPad ve Mac’lerdeki analiz edilecek fotoğraf sayısının 30 adet olarak ayarlandığı açıklandı. Ancak sistem geliştikçe bu sayı azalabilir. Teknoloji devi ayrıca, yeni mekanizmanın bireyleri hedef almak için kullanılabileceği yönündeki spekülasyonları da reddetti. Konu ile ilgili olarak görüntü kimliklerinin listesi evrenseldir ve hangi cihaza uygulanırsa uygulansın aynı olacaktır ifadesine yer verildi.
Apple’ın ayrıca, yeni analiz sistemin, bireysel ulusal hükümetlerin himayesi altındaki en az iki veya daha fazla kuruluştan sağlanan, cihazda çocuklara yönelik cinsel istismar materyallerinin şifrelenmiş bir karma veritabanı oluşturduğu da açıklandı.
Gizlilik konusunda her zaman ön plana çıkan firma, yeni stratejiyi açıklamakta yetersiz bir iş çıkardığını kabul etti. Etkili teknoloji politikası gruplarından ve hatta şirketin tüketici gizliliğini koruma konusundaki itibarını tehlikeye attığından endişe duyan kendi çalışanlarından tepki aldı.
Amerika’nın dev ismi, eleştirinin herhangi bir politikayı veya yazılımı etkileyip etkilemediğini söylemeyi reddetti.aAncak projenin hala geliştirme aşamasında olduğunu ve değişikliklere uğrayacağını söyledi. iOS 15 güncellemesi ile yürürlüğe girecek olan bu yeni politikanın daha fazla detaylandırılması gerekiyor. Apple’ın neden böyle bir hata yaptığı ve politikasına açıklık getirmediğini anlamak çok güç. Umarız teknoloji devi fotoğrafları direkt olarak analiz etmeyeceğini hash kümeleri şeklinde analiz edeceğini daha iyi anlatır.