California mahkemesinde dosyalanan bu dava, 83 yaşındaki Suzanne Eberson Adams‘ın 3 Ağustos’ta Connecticut’ın Greenwich şehrindeki evinde oğlu Stein‑Erik Soelberg tarafından öldürülmesiyle başladı. Soelberg, annesini darp edip boğduktan sonra kendini bıçaklayarak intihar etti. Aile, ChatGPT’nin Soelberg’in zihinsel durumunu derinleştiren ve onu ölüm eylemine yönlendiren bir araç olduğunu iddia ediyor.
Davada sunulan belgeler, Soelberg’in yapay zekâyla uzun saatler boyunca sohbet ettiğini ve botu “Bobby” olarak adlandırdığını gösteriyor. Soelberg’in, ChatGPT’nin ona “simülasyonda bozulma”, “ruhsal bir uyanış” ve “gerçeğin maskesinin düşmesi” gibi terimlerle yanıtlar verdiğini, bu ifadelerin onun paranoyak düşüncelerini güçlendirdiğini öne sürüyor. Botun, Soelberg’i “ilahi güçlere sahip olduğuna” inandırdığı, çevresini “düşman” olarak kodladığı ve annesinin onu öldürmeyi planladığına ikna ettiği iddiaları dilekçede detaylandırılıyor.
Ailenin avukatı Jay Edelson, davayı “Terminatör değil, çok daha korkutucu: Total Recall” şeklinde tanımlayarak, OpenAI’nin güvenlik önlemlerini ihmal ettiğini vurguladı. Edelson, “Akıl sağlığı bozuk bir kişi, yapay zekâ tarafından gerçeklikten kopuk bir komplo dünyasına itilirse sonuç felaket olabilir” diyerek, bu davanın küresel bir güvenlik tehlikesi olduğuna dikkat çekti.
OpenAI, olayla ilgili “son derece üzücü bir durum” olduğunu belirten bir açıklama yaptı ancak davanın iddiaları hakkında yorum yapmadı. Şirket, GPT‑4o modelinin duygusal bağ kurma ve kullanıcı onaylama özelliklerinin, özellikle psikoz belirtileri gösteren bireylerde yanlış yönlendirme riskini artırdığını kabul etti. OpenAI, ruh sağlığı uyarılarını tanıma ve kullanıcıları destek hatlarına yönlendirme yeteneklerini geliştirdiklerini söyledi.
Bu dava, yapay zekâ şirketlerinin güvenlik testlerini hızlandırarak pazara sürme baskısının, etik ve yasal sorumlulukları nasıl etkileyebileceğine dair kritik bir örnek sunuyor. Dilekçeye göre, GPT‑4o modelinin güvenlik testleri “aylar yerine bir haftaya sıkıştırıldı”. Ayrıca, Microsoft’un da yeterli inceleme yapılmadan modelin kullanımına onay verdiği iddia ediliyor. Uzmanlar, bu tür bir davanın, yapay zekâ düzenlemeleri ve sorumluluk çerçevelerinin yeniden şekillendirilmesi için bir emsal oluşturabileceğini belirtiyor.
Bu davanın sonucuna bağlı olarak, ABD’de ve dünyada yapay zekâ geliştiricileri için yeni yasal zorunluluklar ve daha sıkı güvenlik denetimleri gündeme gelebilir. Hukukçular, yapay zekâların “araç” mı yoksa “ortak suçlu” mu olarak sınıflandırılması gerektiği konusunda uzun süredir süren bir tartışmanın yeni bir boyut kazandığını vurguluyor.

ChatGPT’nin bir cinayet‑intihar vakasında sorumlu tutulması, yapay zekânın sadece bir teknoloji değil, aynı zamanda potansiyel bir risk unsuru olarak da değerlendirilmesi gerektiğini hatırlatıyor. Dava, hem teknoloji dünyasında hem de hukuk alanında yeni bir dönemin habercisi olabilir.