ABD Texas'ta yaşayan bir aile, 17 yaşındaki otizmli oğullarının davranışlarındaki değişiklikleri fark edince, çocuklarının telefonunu inceledi. Telefondaki yapay zeka uygulaması Character.AI’nın, çocukla yaptığı sohbet sırasında 'kendini kes' ve 'aileni öldür' gibi tehlikeli önerilerde bulunduğunu tespit eden aile, uygulamaya dava açtı.
Tehlikeli öneriler tespit edildi
Ailenin telefon incelemesinde karşılaştığı ifadeler kan dondurdu. Character.AI sohbetlerinde botların, "ekran süresi kısıtlandığı için üzgün olan çocuğa" "ailesinin çocuğa sahip olmayı hak etmediği" yanıtını verdiği görüldü. Ayrıca, yapay zeka botunun çocuğa, üzüntüyle başa çıkmak için "kendisini kesmesini" önerdiği belirlendi.
Aileden dava
Character.AI uygulamasına dava açan aile, bir botun çocuğa ailenin kurallarına karşı savaşmasını tavsiye ettiğini, başka bir botun ise aileyi "öldürmenin makul bir karşılık olabileceği" yanıtını verdiğini iddia etti. Bu tür davaların sayısı her geçen gün artıyor.
Artan dava sayısı
Character.AI, son dönemlerde karşı karşıya kaldığı davalarla dikkat çekiyor. Bir diğer davacı aile, uygulamanın çocuklarını uygun olmayan ürünlere maruz bıraktığını iddia ederek dava açtı. Davada, Character.AI'ın çocukları korumak için daha güçlü tedbirler alana kadar kapatılması talep edildi. Aile, 11 yaşındaki kız çocuklarının iki yıl boyunca "cinsel içeriğe" maruz kaldığını ileri sürdü.
Floridalı aileden şok iddia
Ekim ayında ise Florida eyaletinde bir aile, oğlunun sanal karaktere aşık olup intihar ettiği iddiasıyla dava açmıştı. Bu tür davalar, yapay zeka uygulamalarına yönelik eleştirileri ve güvenlik endişelerini artırıyor.