Facebook'un skandalı ortaya çıktı!

Sosyal medya platformu Facebook'un yapay zekasının Yeni Zelanda'da iki camiye yönelik yapılan terör saldırısının canlı yayınındaki şiddet ve terör öğelerini yakalayamadığı ortaya çıktı

Facebook'tan yapılan yazılı açıklamada, Christchurch kentinde 50 kişinin yaşamını kaybettiği terör saldırısı anlarının sosyal medyadan yayımlandığı anımsatılarak, 17 dakikalık canlı yayın esnasında Facebook'un yapay zekasının bu konuda harekete geçmediği belirtildi.

Açıklamada terör saldırısı videosunun Facebook'un otomatik tespit sistemlerini uyarmadığını çünkü yapay zekanın bu tür videolar için yeterince eğitilmediğini vurguladı.

Facebook önceki gün yaptığı açıklamada da 17 dakikalık canlı yayın süresince 200 kişinin videoyu görüntülediği ancak bu sürede kendilerine hiçbir şikayet gelmediğini duyurmuştu.

Canlı yayın bittikten 12 dakika sonra Yeni Zelanda polisinin Facebook ile irtibata geçtiğine işaret edilen açıklamada, bu ihbarın hemen ardından videonun yayından kaldırıldığı kaydedilmişti.

SALDIRI FACEBOOK'TA CANLI YAYINLANMIŞTI

Yeni Zelanda'nın Christchurch kentinde, cuma namazı sırasında 10 dakika arayla iki camiye düzenlenen terör saldırılarında 50 kişi yaşamını yitirmişti. Terör saldırıları Facebook, YouTube ve Twitter gibi sosyal platformlarda paylaşılmıştı.

Facebook, saldırılardan sonraki ilk 24 saatte dünya çapında 1,5 milyon videoyu platformdan kaldırdığını, 1,2 milyonun ise yüklendiği sırada bloke edildiğini açıklamıştı.

Facebook'un skandalı ortaya çıktı! ile ilgili etiketler Facebook Yeni Zelanda