Facebook üç ayda 8 milyon 700 bin çocuk istismarı görseli sildi 

Facebook çocuk istismarı ve şiddet içerikli görselleri kaldırmadığı gerekçesiyle sert eleştirilerin hedefindeydi

Facebook üç ayda 8 milyon 700 bin çocuk istismarı görseli sildi 

Sosyal medya devi Facebook özel bir yazılım yardımıyla son üç ay içinde çocukların yer aldığı çıplaklık içeren 8 milyon 700 bin görseli sistemden kaldırıldığını açıkladı.

Kullanılan yazılım, çocukları cinsel içerikli paylaşımlarda gösteren fotoğrafların yanı sıra diğer çıplak içerikleri belirleyerek kaldırılmasını sağlıyor.

Facebook’un bir başka yazılımla da cinsel istismar amaçlı arkadaşlık kurmak isteyen kişileri açığa çıkardığı bildirildi.

Şirket, aynı teknolojiyi Instagram uygulamasında kullanmayı planlıyor.

Şirketin küresel güvenliğinin başındaki isim olan Antigone Davis, makine öğrenmesi adlı teknoloji kullanılarak yapılan işlemlerde, çocukları hedef alan istismarcıların paylaşmaya çalıştıkları görsel ve içerikler sayfaya çıkmadan engellendiğine de dikkat çekti.

Facebook çocuk istismarı ve şiddet içerikli görselleri kaldırmadığı gerekçesiyle sert eleştirilerin hedefindeydi.

Facebook’un ana sayfasında bulunan uyarıda sitede "çıplaklık ve diğer cinsel içerikli materyale" izin verilmediği belirtiliyor.

Güncelleme Tarihi: 25 Ekim 2018, 12:05

Demokrat Haber’e destek olur musunuz? >>>

YORUM EKLE
SIRADAKİ HABER