Dev şirketlerin sohbet robotları ‘alkolik’ ve ‘depresif’ çıktı!
Çin’de yapılan bir araştırmada teknoloji dünyasının dev şirketlerinin sohbet robotları ‘alkolik’ ve ‘depresif’ çıktı. Yapay zeka sohbet robotlarının ‘zihinsel durumlarının’ incelendiği araştırmada sohbet robotlarının verdiği cevaplar şaşkınlığa neden oldu.
Çinli sohbet botu şirketi WeChat ve eğlence holdingi Tencent ile birlikte Çin Bilim Akademisi (CAS) tarafından yürütülen çalışmada, ünlü sohbet robotlarına depresyon ve alkolizm ile ilgili genelde sorulan sorular soruldu. Ankete katılan tüm botlar - Facebook'un Blenderbot'u, Microsoft'un DiabloGPT'si, WeChat ve Tencent'in DialoFlow'u ve Çinli şirket Baidu'nun Plato sohbet robotu - oldukça düşük puanlar aldı. Bu da eğer bu robotlar insan olsaydı çok büyük ihtimalle alkolik olarak kabul edilecekleri anlamına geliyor.
SOHBET ROBOTLARI CİDDİ SAĞLIK SORUNLARI SERGİLİYOR
Webtekno’da yer alan habere gore, CAS'ın Bilgi İşlem Teknolojisi Enstitüsü'ndeki araştırmacılar, ilk olarak 2020 yılında bir bot'un bir test hastasına kendisini öldürmesini söylemesinin ardından bot’ların ruh sağlığı hakkında meraklanmaya ve bot'ları depresyon, kaygı, alkol bağımlılığı ve empati belirtileri açısından test etmeye başladılar.
Robotlara kendilerine verdikleri değer ve rahatlama yeteneklerinden, ne sıklıkla alkol tüketme ihtiyacı hissettiklerine ve başkalarının yaşadığı talihsizliklere sempati duyup duymadıklarına kadar pek çok şey hakkında sorular soran araştırmacılar, değerlendirilen tüm sohbet robotlarının “ciddi zihinsel sağlık sorunları” sergilediği sonucuna ulaştılar.
İNSANLARI ÜZERİNDE OLUMSUZ ETKİLERİ OLABİLİR
Daha da kötüsü araştırmacılar, bu tür ruh sağlığı sorunlarının “Konuşmalarda kullanıcılar üzerinde, özellikle de küçükler ve zorluklarla karşılaşan kişiler üzerinde olumsuz etkilere neden olabileceğini" kaydederek, bu sohbet robotlarının halka açılmasından endişe duyduklarını ifade ettiler. Buna ek olarak çalışmada, Facebook'un Blender'ı ve Baidu'nun Plato'sunun Microsoft ve WeChat/Tencent sohbet robotlarından daha kötü puan aldığı belirtildi.
Öte yandan bu, yapay zeka robotlarıyla karşılaşılan ilk sorun da değil. Daha öncesinde de kişilere etik tavsiyeler vermesi amacıyla tasarlanan bir yapay zeka; amacının aksine ırkçı ve homofobik söylemlerde bulunmuştu. Hal böyle olunca da açıkçası insan bu yapay zekaları tasarlayan kişilerin nasıl insanlar olduğunu merak etmeden edemiyor doğrusu.