Eleştirmenlerden ve kullanıcılardan gelen birçok tepkiden sonra Apple, çocuk istismarına karşı önlemlerini erteliyor.
Ağustos ayında, teknoloji devi ilk olarak iCloud ve Mesajlar'da olası çocuk istismarı görüntülerini tespit etmek için teknoloji kullanan yeni bir politika duyurdu, ancak bunu endişeler izledi. Uzmanlar, Apple'ın kullanıcı gizliliği sözü vermesine rağmen, teknolojinin nihayetinde tüm Apple kullanıcılarını riske atacağı konusunda uyardı.
Cuma günü Apple, iyileştirmeler yapmak ve kullanıcı gizliliğini tamamen sağlamak için teknolojinin kullanıma sunulmasını tamamen geciktireceğini söyledi.
"Müşterilerden, savunma gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik," dedi Apple. web sitesinde güncellenmiş açıklama.
Çocukların cinsel istismarına yönelik materyal algılama teknolojisinin bu yıl iOS 15'in kullanıma sunulmasıyla birlikte kullanıma sunulması gerekiyordu, ancak özelliğin ne zaman kullanıma sunulacağı veya sunulup sunulmayacağı şu anda belirsiz.
Yeni teknoloji iki şekilde çalışacaktı: birincisi, bir görüntüyü iCloud'a yedeklenmeden önce tarayarak. Bu görüntü CSAM kriterleriyle eşleşirse, Apple bu verileri alır. Teknolojinin diğer kısmı, çocukların Mesajlar aracılığıyla aldığı müstehcen görüntüleri belirlemek ve bulanıklaştırmak için makine öğrenimini kullanır.
Ancak, yeni politika açıklandıktan sonra, gizlilik savunucuları ve gruplar, Apple'ın aslında kötü oyuncuların kötüye kullanabileceği bir arka kapı açtığını söyledi.
Bu endişeleri gidermek için Apple, CSAM teknolojisini duyurduktan kısa bir süre sonra bir SSS sayfası yayınladı. Apple, teknolojinin bir cihazda depolanan tüm fotoğrafları taramayacağını, Mesajlar'da uçtan uca şifrelemeyi kırmayacağını ve masum insanları yanlışlıkla kolluk kuvvetlerine bildirmediğini açıkladı.