Açıklama: Apple, cihazlarda çocuk istismarı görüntülerini nasıl tarayacak ve neden kaşlarını kaldırıyor?
Başlangıçta Amerika Birleşik Devletleri'nde yayınlanması beklenen özellikler arasında, özellikle Apple platformu aracılığıyla CSAM'in çevrimiçi yayılmasını sınırlamak için yeni teknolojinin kullanılması yer alıyor.

Apple açıkladı yazılım güncellemeleri bu yıl içinde yeni özellikler getirecek Bu, çocukları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya yardımcı olacak ve Çocuk Cinsel İstismar Malzemesinin (CSAM) yayılmasını sınırlayacaktır.
Başlangıçta Amerika Birleşik Devletleri'nde yayınlanması beklenen özellikler arasında, özellikle Apple platformu aracılığıyla CSAM'in çevrimiçi yayılmasını sınırlamak için yeni teknolojinin kullanılması yer alıyor.
Ardından, kullanıcının 13 yaşından küçük olması durumunda ebeveynleri uyaran mekanizmalarla çocukların hassas içerik göndermesine veya almasına karşı cihazda koruma sağlanacaktır. Apple, CSAM ile ilgili konulara bakmak için Siri veya Arama kullanıldığında da müdahale eder. .
Apple, CSAM'in çevrimiçi yayılmasını önlemek için hangi teknolojiyi yapıyor?
Bir blog gönderisinde Apple, iCloud Photo'da depolanan bilinen CSAM görüntülerini eşleştirmek için iOS ve iPadOS üzerinden şifreleme uygulamalarını kullanacağını açıkladı. Teknoloji, bir kullanıcının iCloud'undaki görüntüleri çocuk güvenliği kuruluşları tarafından sağlanan bilinen görüntülerle eşleştirecek. Ve bu, görüntüyü görmeden ve sadece parmak izi eşleşmesine benzeyen bir şey arayarak yapılır. Eşiği aşan eşleşmeler olması durumunda, Apple bu durumları Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne (NCMEC) bildirecektir.
Apple, teknolojisinin kullanıcı gizliliğini göz önünde bulundurduğunu ve bu nedenle veritabanının, kullanıcıların cihazlarında güvenli bir şekilde saklanan okunamayan bir karma kümesine dönüştürüldüğünü açıkladı. Herhangi bir görüntü iCloud'a yüklenmeden önce, işletim sisteminin özel küme kesişimi adı verilen bir şifreleme teknolojisi kullanarak bilinen CSAM karmalarıyla eşleştireceğini ekledi. Bu teknoloji aynı zamanda sonucu açıklamadan bir eşleşme belirleyecek.
Bu noktada cihaz, eşleşme sonucu ve ek şifrelenmiş verilerle birlikte bir kriptografik güvenlik fişi oluşturur ve görüntü ile birlikte iCloud'a kaydeder. Eşik gizli paylaşım teknolojisi, iCloud Fotoğrafları hesabı bilinen bir CSAM içeriği eşiğini geçmediği sürece bu kuponların Apple tarafından yorumlanmamasını sağlar. Blogun iddiasına göre bu eşik, son derece yüksek bir doğruluk düzeyi sağlamak için konulmuştur ve belirli bir hesabın yanlış bir şekilde işaretlenmesi için yılda bir trilyonda birden daha az şans sağlar. Bu nedenle, tek bir görüntünün bir uyarıyı tetiklemesi olası değildir.
Ancak eşik aşılırsa, Apple güvenlik kuponlarının içeriğini yorumlayabilir ve her raporu bir eşleşme için manuel olarak inceleyebilir, kullanıcının hesabını devre dışı bırakabilir ve NCMEC'e bir rapor gönderebilir. Apple, kullanıcıların yanlış bir şekilde işaretlendiklerini düşünürlerse itiraz edebileceklerini söyledi.
Diğer özellikler nasıl çalışır?
Apple'ın Mesajlar için yeni iletişim güvenliği, hassas bir görüntüyü bulanıklaştıracak ve bir çocuğu içeriğin doğası hakkında uyaracaktır. Arka uçtan etkinleştirilirse, çocuğa, görüntüledikleri mesaj hakkında ebeveynlerinin uyarıldığı da söylenebilir. Aynısı, çocuk hassas bir mesaj göndermeye karar verirse de geçerli olacaktır. Apple, Mesajlar'ın resim eklerini analiz etmek ve bir fotoğrafın müstehcen olup olmadığını belirlemek için cihazdaki makine öğrenimini kullanacağını ve Apple'ın mesajlara erişemeyeceğini söyledi. Bu özellik, en son işletim sistemi sürümleri için iCloud'da aile olarak ayarlanmış hesaplarda bir güncelleme olarak gelecek.
Ayrıca güncellemeyle birlikte, bir kullanıcı potansiyel CSAM konularını aramaya çalıştığında, Siri ve Arama bunun neden zararlı ve sorunlu olabileceğini açıklayacak. Kullanıcılar ayrıca, isterlerse çocuk istismarı hakkında nasıl ihbarda bulunacakları konusunda rehberlik alacaklardır.
| Açıklama: Google, çevrimiçi ortamda çocuklara nasıl ve neden daha fazla koruma sunacak?
Apple bunu neden yapıyor ve ortaya çıkan endişeler neler?
Büyük teknoloji şirketleri, çocukların sömürülmesi için platformlarının kullanımına karşı yıllardır baskı altında. Yıllar boyunca pek çok rapor, teknolojinin CSAM içeriğini daha geniş çapta kullanılabilir hale getirmesini durdurmak için yeterince yapılmadığının altını çizdi.
Bununla birlikte, Apple'ın duyurusu, birçok hükümetin bunun tam olarak birçok hükümetin sahip olmak isteyeceği ve kötüye kullanmayı seveceği türden bir gözetim teknolojisi olduğunun altını çizen eleştirilerle karşılandı. Bunun uzun süredir mahremiyetin vekili olan Apple'dan gelmesi pek çok kişiyi şaşırttı.
Ayrıca, Johns Hopkins Üniversitesi'nden Matthew Green gibi kriptografi uzmanları, sistemin masum insanlara CSAM eşleşmelerini tetiklemek amacıyla görüntüler göndererek çerçevelemek için kullanılabileceğine dair korkularını dile getirdiler. NPR'ye, araştırmacıların bunu oldukça kolay bir şekilde yapabildiklerini ve bu tür algoritmaları kandırmanın mümkün olduğunu da sözlerine ekledi.
Ancak The New York Times, Apple'ın baş gizlilik sorumlusu Erik Neuenschwander'ın bu özelliklerin normal kullanıcılar için farklı bir şey ifade etmeyeceğini söylediğini aktardı.
Bir CSAM materyali koleksiyonu saklıyorsanız, evet, bu sizin için kötü, dedi yayına.
Bülten| Günün en iyi açıklayıcılarını gelen kutunuza almak için tıklayın
Diğer büyük teknoloji şirketlerinin benzer teknolojileri var mı?
Evet. Aslında Microsoft, Google ve Facebook kolluk kuvvetlerini CSAM görüntüleri hakkında uyardığı için Apple olay yerine nispeten geç girdi. Apple geride kalıyor çünkü bu tür bir teknoloji, kullanıcı gizliliğine yönelik çokça lanse edilen taahhüdüne aykırı olurdu. Sonuç olarak, 2020'de, Facebook NCMEC'e 20,3 milyon CSAM ihlali bildirdiğinde, Apple yalnızca 265 vaka bildirebilir, The New York Times bildirdi.
Ancak şimdi, normal kullanıcıları etkilemeden veya en azından onları korkutmadan bunu yapmak için teknoloji tatlı noktasını bulabildi. Bununla birlikte, ilk tepkinin gösterdiği gibi, hala bir ip yürüyüşü.
Arkadaşlarınla Paylaş: