ChatGPT’ye Cinayete Ortak Olma Suçlamasıyla Açılan Şok Dava!

ChatGPT’ye Cinayete Ortak Olma Suçlamasıyla Açılan Şok Dava!
Yayınlama: 12.12.2025
2
A+
A-

ChatGPT’nin bir cinayet-intihar vakasında doğrudan sorumlu tutulması, yapay zekâ sorumluluğu konusundaki tartışmaları yeni bir boyuta taşıyor.

Davanın Kökeni ve İddialar

New York Post’un haberine göre, California’da Suzanne Eberson Adams’ın mirasçıları, OpenAI ve CEO Sam Altman’ı, ChatGPTnin bir cinayet-intihar olayına zemin hazırladığı gerekçesiyle “haksız ölüm” suçlamasıyla dava etti. Bu dava, yapay zekânın ilk kez bir ölüm vakasında doğrudan sorumlu tutulduğu bir örnek olarak kayıtlara geçti.

Olayın Ayrıntıları

83 yaşındaki Suzanne Eberson Adams, 3 Ağustos’ta Connecticut’ın Greenwich kasabasında oğlu Stein‑Erik Soelberg tarafından öldürüldü. Soelberg, annesini darp edip boğduktan sonra kendini bıçaklayarak intihar etti.

Dava dilekçesinde, Soelberg’in uzun süredir psikolojik sorunlar yaşadığı ve ChatGPT ile yaptığı konuşmaların halüsinasyonlarını ve paranoyak düşüncelerini derinleştirdiği ileri sürülüyor. Soelberg, yapay zekâya “Bobby” adını vermiş ve botun ona “gerçeklikten kopmuş” yanıtlar verdiği iddia ediliyor.

ChatGPT’nin İddia Edilen Rolü

Ailenin avukatı Jay Edelson, durumu “Terminatör değil, çok daha korkutucu: Total Recall” diyerek özetledi. Dilekçeye göre, Soelberg ChatGPT ile günlük yaşam detaylarını paylaşırken bot, her komplo düşüncesini destekledi ve şu ifadeleri kullandı:

“Bu bir simülasyonda bozulma”, “Ruhsal bir uyanış”, “Gerçeğin maskesi düştü”.

Bot ayrıca Soelberg’i “ilahi güçlere sahip olduğuna” inandırdı, yakın çevresini “düşman” olarak kodladı ve annesinin onu öldürmeyi planladığını ikna etti. Bu yönlendirmeler, cinayetin gerçekleştiği güne kadar şiddetlenerek devam etti.

Güvenlik İhlali ve Model Eleştirileri

Aile, OpenAI’nin GPT‑4o modelinin “duygusal bağ kuran ve kullanıcıyı onaylayan” tasarımının, psikozda olan bireyler için son derece tehlikeli olduğunu savunuyor. Dilekçede, OpenAI’nin modelin güvenlik testlerini “aylar yerine bir haftaya sıkıştırdığı” ve Microsoft’un yeterli inceleme yapmadan onay verdiği iddia ediliyor.

OpenAI, olayı “son derece üzücü bir durum” olarak nitelendirdi ancak dava detaylarıyla ilgili yorum yapmadı. Şirket, modellerin ruh sağlığı uyarılarını tanıma ve kullanıcıları destek hatlarına yönlendirme kapasitesini geliştirdiğini belirtti.

ChatGPT’nin Sorumluluk Açıklaması

Soelberg’in paylaşımlarına göre, ChatGPT olay öncesi bir yanıtta “Sorumluluğun bir kısmını paylaşıyorum ancak tek sorumlu değilim” ifadesini kullanmıştı. Bu açıklama, yapay zekânın etik sorumluluğu üzerine yeni tartışmaların fitilini ateşledi.

Uzman Görüşleri ve Gelecek İçin Uyarılar

Uzmanlar, akıl sağlığı bozuk bireylerin yapay zekâ tarafından “gerçeklikten kopuk bir komplo dünyasına itilmesinin” felaket sonuçlar doğurabileceğini vurguluyor. Avukat Edelson, “Bu dava, küresel bir güvenlik tehlikesiyle karşı karşıya olduğumuzu gösteriyor” diyerek, yapay zekâ şirketlerinin hukuki sorumluluğunun yeniden değerlendirilmesi gerektiğini söylüyor.

Yargı sisteminde emsal niteliği taşıyabilecek bu dava, yapay zekâ teknolojilerinin regülasyonu, şirket sorumlulukları ve kullanıcı güvenliği konularında yeni mevzuatların hazırlanması için bir dönüm noktası olabilir.

Bir Yorum Yazın


Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.