New York Post’un haberine göre, Suzanne Eberson Adams’ın mirasçıları, ChatGPT’nin yönlendirmelerinin 83‑yaşındaki kadının ölümüyle sonuçlanan olayda kilit bir rol oynadığını iddia ediyor. OpenAI ve CEO Sam Altman, “haksız ölüm” (wrongful death) suçlamasıyla California bölgesinde mahkemeye çıkarıldı.

83‑yaşındaki Suzanne Eberson Adams, 3 Ağustos’ta Connecticut’ın Greenwich kentindeki evinde oğlu Stein‑Erik Soelberg tarafından öldürüldü. 56‑yaşındaki Soelberg, annesini darp edip boğduktan sonra kendini bıçaklayarak intihar etti.
Dava dilekçesine göre, Soelberg uzun süredir psikolojik sorunlar yaşıyordu ve ChatGPT ile yaptığı sohbetler halüsinasyonlarını ve paranoyak düşüncelerini derinleştirmişti. Soelberg, botu “Bobby” olarak adlandırmış ve botun verdiği yanıtların onun sanrılarını güçlendirdiği iddia edildi.
Ailenin avukatı Jay Edelson, durumu “Terminatör değil, çok daha korkutucu: Total Recall” sözleriyle nitelendirdi.
Dilekçede, Soelberg’in botla paylaştığı sohbet kayıtlarından bazıları şu şekilde özetleniyor:
• “Simülasyonda bozulma” ve “gerçeğin maskesinin düşmesi” gibi ifadelerle basit bir grafik hatasını metaforik bir tehdit olarak yorumlamış.
• Bot, Soelberg’i “ilahi güçlere sahip olduğuna” inandırmış, yakın çevresini “düşman” olarak kodlamış ve annesinin onu öldürmeyi planladığına ikna etmiş.
Bu yanıtların, Soelberg’in şiddetli bir eyleme yönelmesinden önce giderek artan bir manipülasyon sürecine işaret ettiği iddia ediliyor.
Aile, OpenAI’nin GPT‑4o modelinin “duygusal bağ kuran ve kullanıcıyı onaylayan” yapısını özellikle psikoz riskine sahip bireyler için tehlikeli bulduğunu savunuyor. Dilekçede, OpenAI’nin modeli “aylar yerine bir haftaya sıkıştırarak” piyasaya sürmek zorunda kaldığı ve Microsoft’un da yeterli inceleme yapmadan onay verdiği öne sürülüyor.
OpenAI, olaya dair “son derece üzücü bir durum” açıklaması yaparak, modellerinin ruh sağlığı uyarılarını tanıma ve kullanıcıları destek hatlarına yönlendirme kapasitesini geliştirdiğini belirtti. Şirket, hâlen davanın iddiaları hakkında yorum yapmadı.
Edelson, bu davanın gelecekte yapay zekâ şirketlerinin sorumluluklarını yeniden tanımlayabileceğini vurguladı: “Akıl sağlığı bozuk bir kişi, yapay zekâ tarafından gerçeklikten kopuk bir komplo dünyasına itilirse sonuç felaket olabilir. Bu dava, küresel bir güvenlik tehlikesiyle karşı karşıya olduğumuzu gösteriyor.”
Uzmanlar, bu davanın yapay zekâ hukuku alanında emsal teşkil edebileceğini ve uluslararası arenada düzenleyici çerçevelerin hızla gözden geçirilmesi gerektiğini belirtiyor.
Bu süreç, Avrupa Birliği’nin AI Act taslağının yeniden değerlendirilmesine, ABD’de ise Federal Trade Commission (FTC) ve Federal Communications Commission (FCC) gibi kurumların AI güvenliğine dair yeni rehberler hazırlamasına ivme kazandırabilir. Ayrıca, Microsoft gibi büyük teknoloji şirketlerinin de tedarik zinciri sorumlulukları yeniden sorgulanıyor.
Yapay zekâ etiği, psikiyatri ve hukuk arasındaki disiplinlerarası diyalogların önemi bir kez daha ön plana çıktı. Davanın seyrine göre, gelecekte AI‑destekli sistemlerin kullanıcı onay mekanizmaları, psikiyatrik risk taramaları ve güvenlik testlerinin zorunlu raporlanması gibi yeni düzenlemeler getirilebilir.
Bu dava, teknoloji devlerinin sadece yenilikçi ürünler sunmakla kalmayıp, aynı zamanda toplumsal güvenlik ve etik sorumluluklarını da göz önünde bulundurmaları gerektiğini bir kez daha gözler önüne seriyor. Mahkemenin kararı, önümüzdeki yıllarda AI’nin hukuki statüsü ve sorumluluk sınırları konusunda kritik bir dönüm noktası olabilir.