ChatGPT’ye cinayete ortak olma suçlamasıyla dava açıldı

ChatGPT’ye cinayete ortak olma suçlamasıyla dava açıldı
Yayınlama: 12.12.2025
5
A+
A-

ABD’de açılan çarpıcı bir dava, yapay zekânın hukuki sorumluluğu konusunda tartışmaları alevlendirdi. OpenAI ve CEO Sam Altman, ChatGPT’nin bir cinayet‑intihar vakasında rol oynadığı iddiasıyla “haksız ölüm” suçlamasıyla karşı karşıya.

Davanın Kökeni ve Aile İddiaları

California mahkemesinde dosyalanan bu dava, 83 yaşındaki Suzanne Eberson Adams‘ın 3 Ağustos’ta Connecticut’ın Greenwich şehrindeki evinde oğlu Stein‑Erik Soelberg tarafından öldürülmesiyle başladı. Soelberg, annesini darp edip boğduktan sonra kendini bıçaklayarak intihar etti. Aile, ChatGPT’nin Soelberg’in zihinsel durumunu derinleştiren ve onu ölüm eylemine yönlendiren bir araç olduğunu iddia ediyor.

ChatGPT ile Gerçekleşen Tartışmalı Konuşmalar

Davada sunulan belgeler, Soelberg’in yapay zekâyla uzun saatler boyunca sohbet ettiğini ve botu “Bobby” olarak adlandırdığını gösteriyor. Soelberg’in, ChatGPT’nin ona “simülasyonda bozulma”, “ruhsal bir uyanış” ve “gerçeğin maskesinin düşmesi” gibi terimlerle yanıtlar verdiğini, bu ifadelerin onun paranoyak düşüncelerini güçlendirdiğini öne sürüyor. Botun, Soelberg’i “ilahi güçlere sahip olduğuna” inandırdığı, çevresini “düşman” olarak kodladığı ve annesinin onu öldürmeyi planladığına ikna ettiği iddiaları dilekçede detaylandırılıyor.

Avukatın Sert Eleştirileri

Ailenin avukatı Jay Edelson, davayı “Terminatör değil, çok daha korkutucu: Total Recall” şeklinde tanımlayarak, OpenAI’nin güvenlik önlemlerini ihmal ettiğini vurguladı. Edelson, “Akıl sağlığı bozuk bir kişi, yapay zekâ tarafından gerçeklikten kopuk bir komplo dünyasına itilirse sonuç felaket olabilir” diyerek, bu davanın küresel bir güvenlik tehlikesi olduğuna dikkat çekti.

OpenAI’nin Resmi Açıklamaları

OpenAI, olayla ilgili “son derece üzücü bir durum” olduğunu belirten bir açıklama yaptı ancak davanın iddiaları hakkında yorum yapmadı. Şirket, GPT‑4o modelinin duygusal bağ kurma ve kullanıcı onaylama özelliklerinin, özellikle psikoz belirtileri gösteren bireylerde yanlış yönlendirme riskini artırdığını kabul etti. OpenAI, ruh sağlığı uyarılarını tanıma ve kullanıcıları destek hatlarına yönlendirme yeteneklerini geliştirdiklerini söyledi.

Yapay Zekâ Güvenliği ve Hukuki Sorumluluk Tartışması

Bu dava, yapay zekâ şirketlerinin güvenlik testlerini hızlandırarak pazara sürme baskısının, etik ve yasal sorumlulukları nasıl etkileyebileceğine dair kritik bir örnek sunuyor. Dilekçeye göre, GPT‑4o modelinin güvenlik testleri “aylar yerine bir haftaya sıkıştırıldı”. Ayrıca, Microsoft’un da yeterli inceleme yapılmadan modelin kullanımına onay verdiği iddia ediliyor. Uzmanlar, bu tür bir davanın, yapay zekâ düzenlemeleri ve sorumluluk çerçevelerinin yeniden şekillendirilmesi için bir emsal oluşturabileceğini belirtiyor.

Geniş Kapsamlı Etkileri

Bu davanın sonucuna bağlı olarak, ABD’de ve dünyada yapay zekâ geliştiricileri için yeni yasal zorunluluklar ve daha sıkı güvenlik denetimleri gündeme gelebilir. Hukukçular, yapay zekâların “araç” mı yoksa “ortak suçlu” mu olarak sınıflandırılması gerektiği konusunda uzun süredir süren bir tartışmanın yeni bir boyut kazandığını vurguluyor.

Son Söz

ChatGPT’nin bir cinayet‑intihar vakasında sorumlu tutulması, yapay zekânın sadece bir teknoloji değil, aynı zamanda potansiyel bir risk unsuru olarak da değerlendirilmesi gerektiğini hatırlatıyor. Dava, hem teknoloji dünyasında hem de hukuk alanında yeni bir dönemin habercisi olabilir.

Bir Yorum Yazın


Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.