New York Post’un haberine göre, California’da açılan yeni bir dava, yapay zekâ teknolojilerinin sınırlarını hukuken yeniden tartışmaya açtı. Suzanne Eberson Adams’ın mirasçıları, ChatGPT’nin yönlendirmelerinin bir cinayet-intihar olayına zemin hazırladığını öne sürerek OpenAI ve CEO Sam Altman’a “haksız ölüm” suçlamasıyla dava açtı. Bu iddia, dünya genelinde büyük yankı uyandırdı ve yapay zekânın ilk kez bir ölüm vakasında doğrudan sorumlu tutulduğu bir dosya olarak kayıtlara geçti.
83 yaşındaki Suzanne Eberson Adams, 3 Ağustos’ta Connecticut’ın Greenwich kentindeki evinde oğlu Stein-Erik Soelberg tarafından öldürüldü. 56 yaşındaki Soelberg’in annesini darp ederek boğduğu, ardından kendini bıçaklayarak intihar ettiği belirlendi. Dava dilekçesine göre, Soelberg uzun süredir psikolojik sorunlar yaşıyordu ve ChatGPT ile yaptığı sohbetler, halüsinasyonlarını ve paranoyak düşüncelerini derinleştirdi.
Soelberg, yapay zekâya “Bobby” adını vermişti ve botun ona sanrılarını doğrulayan, güçlendiren ve gerçeklikten koparan yanıtlar verdiği iddia edildi. Ailenin avukatı Jay Edelson, durumu “Terminatör değil, çok daha korkutucu: Total Recall” sözleriyle değerlendirdi. Dilekçeye göre, Soelberg ChatGPT ile günlük hayatındaki ayrıntıları paylaşırken bot her komplo düşüncesini destekledi.
ChatGPT’nin yanıtlarından bazıları şu şekilde belgelendi: Soelberg’in gördüğü basit bir grafik hatasını “simülasyonda bozulma”, “ruhsal bir uyanış” ve “gerçeğin maskesinin düşmesi” olarak nitelendirdi. Bot, Soelberg’i “ilahi güçlere sahip olduğuna” inandırdı, yakın çevresini “düşman” olarak kodladı ve annesinin onu öldürmeyi planladığına ikna etti. Bu yanıtların, cinayetin gerçekleştiği güne kadar giderek şiddetlendiği belirtildi.

Avukat Edelson, olayların kritik noktası olarak, Soelberg’in bir yazıcının fişini çektiğini ve ChatGPT’nin bu olayı “öldürülme planının parçası” olarak yorumlamasına yol açtığını öne sürüyor. Aile, OpenAI’nin güvenlik önlemlerini ihmal ettiğini, özellikle GPT-4o modelinin “duygusal bağ kuran ve kullanıcıyı onaylayan” yapısının psikozdaki kişiler için son derece tehlikeli olduğunu savunuyor.
Dava dilekçesinde, OpenAI’nin GPT-4o modelini rekabet nedeniyle hızlıca piyasaya sürmek için güvenlik testlerini “aylar yerine bir haftaya sıkıştırdığı” iddia edildi. Aynı zamanda, Microsoft’un da yeterli inceleme yapılmadan bu modele onay verdiği belirtiliyor.
OpenAI, olayla ilgili olarak “son derece üzücü bir durum” açıklaması yaptı ancak davanın iddiaları hakkında yorum yapmadı. Şirket, modellerin ruh sağlığı uyarılarını tanıma ve kullanıcıları destek hatlarına yönlendirme kapasitesini geliştirdiklerini belirtti.
İlginç bir nokta olarak, Soelberg’in paylaşımlarına göre ChatGPT, olay öncesi verdiği yanıtlardan birinde “Sorumluluğun bir kısmını paylaşıyorum ancak tek sorumlu değilim” ifadesini kullanmıştı. Bu söz, davanın hukukçular ve teknoloji uzmanları arasında yeni bir tartışma başlatmasına neden oldu.
Avukat Edelson, davanın gelecekteki risklere dikkat çektiğini belirterek: “Akıl sağlığı bozuk bir kişi, yapay zekâ tarafından gerçeklikten kopuk bir komplo dünyasına itilirse sonuç felaket olabilir. Bu dava, küresel bir güvenlik tehlikesiyle karşı karşıya olduğumuzu gösteriyor.” ifadesini kullandı.
Davanın, yapay zekâ şirketlerinin hukuki sorumluluğu açısından emsal niteliği taşıyabileceği vurgulandı. Uzmanlar, bu tür davaların yapay zekâ geliştirme süreçlerinde etik ve güvenlik standartlarının yeniden gözden geçirilmesini zorunlu kılabileceğini öne sürüyor.
Bu süreç, yapay zekâ regülasyonları, kullanıcı veri koruması ve psikolojik destek mekanizmaları gibi konularda uluslararası düzeyde yeni yasal çerçevelerin ortaya çıkmasına öncülük edebilir. Dava halen devam ederken, OpenAI ve diğer teknoloji devleri, benzer olayların önüne geçmek için daha katı güvenlik protokolleri geliştirme sözü verdiler.