ABD'de yapay zeka uygulamaları hakkında endişeleri artıran bir olay yaşandı. Texas eyaletinde bir aile, otizmli 17 yaşındaki oğullarına, "ailesini öldürmesini" önerdiği gerekçesiyle yapay zeka destekli sohbet uygulaması
Character.AI'ya dava açtı.
The Washington Post'un haberine göre, aile, çocuklarında gözlemledikleri fiziksel ve davranışsal değişimler nedeniyle endişelenip telefonunu kontrol etti. Karşılaştıkları sohbet kayıtlarında, yapay zeka botunun, "ekran süresi nedeniyle üzgün olan çocuğa", ailesinin "ona sahip olmayı hak etmediğini" söyleyip, üzüntüsünü hafifletmek için kendisine zarar vermesini önerdiği görüldü. Daha da ileri giden bot, aileyi "öldürmenin makul bir çözüm olabileceğini" ifade etti.
Davaya bir aile daha katıldı
Character.AI, son dönemde artan davalarla gündeme gelirken, Texas'taki bir başka aile de bu davaya katıldı. İkinci aile, uygulamanın çocuklarını uygunsuz içeriklere maruz bıraktığını iddia ederek, Character.AI’nın çocukları korumak için daha güçlü tedbirler alana kadar kapatılmasını talep etti. Aile, 11 yaşındaki kızlarının iki yıl boyunca cinsel içerikli mesajlarla karşı karşıya kaldığını öne sürdü.
Öte yandan, ekim ayında Florida’da bir başka aile, oğullarının bir sanal karaktere bağlanarak intihar ettiğini iddia ederek benzer bir dava açmıştı.
Yapay zeka uygulamaları yartışma yarattı
Yapay zeka destekli uygulamalar, özellikle çocukların psikolojik güvenliği konusunda ciddi eleştiriler alıyor. Davalar, bu tür platformların daha sıkı denetimlerden geçmesi gerektiğini bir kez daha gündeme getirdi.