Dünyanın önde telefon ve bilgisayar üreticileri ortasında yer alan Apple, “Çocuk istismarına karşı telefon tarama” projesinden geri adım attı. Şirket, özel hayatın kapalılığını ihlal ettiği gerekçesiyle tartışma yaratan güncellemeyi şimdilik hayata geçirmeyecek.
BÜSBÜTÜN MASADAN KALDIRILMADI
Apple, internet sitesinden yaptığı açıklamada, çocukların bağlantı araçları ile cinsel istismarını ve bu çeşit gereçlerin yayılmasını önlemek için geliştirdikleri özelliklerin kullanıma girmesini, müşterilerden, araştırmacılardan ve hak savunucusu kuruluşlardan gelen yorumlar üzerine ertelediklerini belirtti. Açıklamada, sistemin büsbütün masadan kaldırılmadığı, fakat tenkitler doğrultusunda geliştirebilmek için lansmanın ertelendiği vurgulandı. Fakat özelliklerin ne vakit devreye girebileceğine ait bilgi paylaşılmadı.
HASSAS İÇERİK TARAMASI
Apple’ın geçen ay kullanıcıların iCloud içeriklerini çocuk istismarı içeren imaj ve görüntülere karşı tarayacağını açıklaması, şirketin şahsî saklılık siyasetleriyle çeliştiği için tartışmalara neden olmuştu. Apple çocuk istismarına karşı aldıkları üç evreli tedbirlerin birinci etabında, yapay zeka teknolojileri sayesinde özel yazışmaları görüntülemeden, sadece CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapacağını açıklamıştı.
GÜVENLİK GÜÇLERİNİ UYARACAKTI
Kelam konusu sistem, çocuk istismarı ile ilgili kuşkulu görselleri, gerçek bireylerin incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacaktı.
Kaynak: Anadolu Ajansı / Esin Eşkinat Sayılgan