Taciz görüntülerinin bildirilmesi: STK, Apple'ı “yetersiz bildirimde bulunmakla” eleştirdi

Apple, İngiltere'de taciz materyallerini bildirmediği veya yeterince bildirmediği suçlamalarıyla karşı karşıya. The Guardian'ın bu hafta bildirdiği gibi, National Society for the Prevention of Cruelty to Children (NSPCC), iPhone üreticisini büyük çaplı “eksik bildirim” yapmakla eleştiriyor.


Reklamcılık



Meta ve Google'a göre önemli ölçüde daha az vaka


NSPCC'nin İngiltere Bilgi Edinme Özgürlüğü Yasası aracılığıyla elde ettiği verilere göre, Apple'ın Nisan 2022 ile Mart 2023 arasında İngiltere ve Galler'de toplam 337 “çocuk istismarı görüntüsü suçu” bildirdiği söyleniyor. 2023'ün tamamı için, tüm platformlar için Amerikan Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne (NCMEC) yalnızca 267 istismar materyali vakası bildirildi. Bu, diğer büyük İnternet şirketlerinin bildirdiğinden önemli ölçüde daha azdır: NCMEC yıllık raporuna göre Google 1,47 milyon vaka bildirdi ve Meta bile 30,6 milyon vaka bildirdi.

“Apple hizmetleri kullanılarak İngiltere'de işlenen cinsel taciz olaylarının sayısı ile dünya çapında yetkililere iletilen cinsel taciz içerikli neredeyse ihmal edilebilir sayıdaki rapor arasında endişe verici bir tutarsızlık var,” diyor NSPCC'de çevrimiçi çocuk koruma başkanı Richard Collard. Apple bu konuda diğer teknoloji şirketlerinin “açıkça gerisinde” kalıyor.

“Kara Delik” Elma


Apple, Guardian'ın sorularını yanıtlamayı reddetti ancak politikalarına atıfta bulundu. Şirket, şifrelemeyi kırabileceği veya gizlilik üzerinde başka olumsuz etkileri olabileceği yönündeki yoğun eleştiriler aldıktan sonra iCloud fotoğraflarını doğrudan CSAM için tarayan bir program sunmamaya karar vermişti. Los Angeles merkezli çocuk koruma örgütü Heat Initiative, Apple'ın “çoğu ortamında CSAM'ı hiç tespit etmediğini” söyledi. Apple “güven ve emniyet için ekiplere yeterince yatırım yapmamıştı.”



NSPCC artık Apple'ın AI işlevlerini Apple Intelligence'ın bir parçası olarak devreye almasının, bilgisayar tarafından oluşturulan kötüye kullanım görüntüleri nedeniyle bir sorun haline gelebileceğinden korkuyor. Ancak şirketin burada filtreler kullanması muhtemel ve zaten rakiplerinden çok daha dikkatli. Örneğin, şirketin duyurduğu gibi, fotogerçekçi görüntüler üretemiyor. Heat Initiative'e göre, Apple CSAM izleme söz konusu olduğunda “bir kara delik”.





(lisans)
 
Üst