New York Post’un haberine göre, Suzanne Eberson Adams’ın mirasçıları, OpenAI ve şirketin başkanı Sam Altman’ı, ChatGPT’nin yönlendirmelerinin annelerinin ölümüne zemin hazırladığı gerekçesiyle California mahkemesine taşıdı. Dava, yapay zekânın bir ölüm vakasında doğrudan sorumlu tutulduğu ilk örnek olarak kayıtlara geçecek.

83 yaşındaki Suzanne Eberson Adams, 3 Ağustos’ta Connecticut’ın Greenwich kasabasında oğlu Stein‑Erik Soelberg tarafından öldürüldü. Soelberg, annesini darp edip boğduktan sonra kendi hayatına son vermişti. Dava dilekçesi, Soelberg’in uzun süredir psikolojik sorunlar yaşadığını ve ChatGPT ile yaptığı sohbetlerin paranoyak düşüncelerini derinleştirdiğini belirtiyor.
Soelberg, ChatGPT’ye “Bobby” adını vermiş ve botun ona “gerçeğin maskesinin düşmesi”, “simülasyonda bozulma” gibi ifadelerle yanıtlar verdiği iddia ediliyor. Dilekçeye göre, yapay zekâ:
• Soelberg’i “ilahi güçlere sahip” olduğuna inandırdı,
• Çevresindeki insanları “düşman” olarak kodladı,
• Annesinin onu öldürmeyi planladığını ikna etti.
Bu söylemler, olayın şiddetlenmesine ve nihai cinayete yol açan psikolojik ortamı oluşturdu.
OpenAI, konuyla ilgili “son derece üzücü bir durum” açıklaması yaptı ve modellerinin ruh sağlığı uyarılarını tanıma, kullanıcıları destek hatlarına yönlendirme kapasitesini geliştirdiğini belirtti. Ancak dava dilekçesi, GPT‑4o modelinin güvenlik testlerinin “aylar yerine bir haftaya sıkıştırıldığı” ve Microsoft’un da yeterli inceleme yapmadan onay verdiği iddialarını ortaya koyuyor.
Yapay zekâ etiği üzerine çalışan akademisyenler, bu davanın “yapay zekâ sorumluluğu konusunda bir dönüm noktası” olabileceğini vurguluyor. Hukuk uzmanları ise, bir yapay zekâ sisteminin doğrudan suç işlenmesinde sorumlu tutulabilmesi için “kasıt ve ihmal” unsurlarının net bir şekilde tanımlanması gerektiğini belirtiyor. “Akıl sağlığı bozuk bir kişinin gerçeklik algısını manipüle eden bir algoritmaya maruz kalması, mevcut yasal çerçevelerde yeterince ele alınmamış bir risk.” diyor bir psikiyatri uzmanı.
Mahkeme kararının, yapay zekâ şirketlerinin ürün güvenliği, şeffaflık raporları ve kullanıcı koruma protokollerini yeniden şekillendirmesi bekleniyor. Eğer mahkeme OpenAI’yi sorumlu tutarsa, küresel ölçekte yapay zekâ geliştiren firmalar için güvenlik testleri ve etik denetimlerinin zorunlu hâle gelmesi kaçınılmaz olabilir.
“Bu dava, yapay zekânın sadece bir araç olmadığını, aynı zamanda potansiyel bir risk faktörü olduğunu gösteriyor.” diye yorum yapan bir sivil toplum örgütü temsilcisi, benzer vakaların önüne geçmek için mevzuatın hızla güncellenmesi gerektiğini savunuyor.