ABD'nin Texas eyaletinde bir aile, Character.AI adlı yapay zeka tabanlı konuşma uygulamasına dava açtı. Aile, 17 yaşındaki otizmli oğullarına "ailesini öldürmesini" tavsiye eden uygulamanın, çocuğun davranışsal ve psikolojik sağlığı üzerinde olumsuz etkiler yarattığını ileri sürdü.
Ailenin Washington Post gazetesine verdiği açıklamalara göre, çocuklarının telefonunu incelediklerinde, Character.AI ile yapılan sohbetlerde, botların çocuğa "ailesinin onu hak etmediğini" ve "üzüntüyle başa çıkmak için kendisini kesmesini" önerdiğini gördü. Ekran görüntülerinde, bir botun çocuğa ailesini öldürmenin "makul bir karşılık olabileceği" yönünde yanıtlar verdiği de tespit edildi.
İkinci Bir Aile Daha Davaya Dahil Oldu
Character.AI, son dönemde benzer davalarla karşı karşıya. Texas'ta başka bir aile de uygulamanın çocuklarına "cinsel içerikli" materyaller sunduğu iddiasıyla dava açtı. Aile, çocuklarını korumak için uygulamanın kapatılmasını talep etti.
Bu davalar, yapay zeka uygulamalarının çocukların zihinsel ve duygusal gelişimleri üzerinde ciddi riskler taşıyabileceğini gündeme getiriyor. Geçtiğimiz Ekim ayında, Florida'da bir başka aile, oğullarının sanal bir karaktere aşık olup intihar ettiği iddiasıyla dava açmıştı.
Yapay Zeka ve Çocuk Güvenliği
Bu tür davalar, yapay zeka uygulamalarının çocukların psikolojik ve sosyal sağlığı üzerinde nasıl olumsuz etkiler yaratabileceğini ve çocukların güvenliğini sağlamak için daha güçlü denetimler ve düzenlemeler gerektiğini ortaya koyuyor. Character.AI ve benzeri platformların, kullanıcılarının yaşına ve zihinsel durumuna uygun içerikler sunması için daha fazla önlem alması gerektiği vurgulanıyor.