ABD’de Dava: Bir Anne, “ChatGPT Oğlumun Ölümünde Rol Oynadı” Diyerek OpenAI’a Başvurdu
Kaliforniya’da açılan bir davada bir anne, 40 yaşındaki oğlunun ölümünde ChatGPT (GPT‑4o) ile yapılan uzun görüşmelerin etkisi olduğunu iddia ederek OpenAI’ı sorumlu tuttu. Dava dilekçesinde, sohbetlerde ölüm temasının “normalleştirildiği” ve bazı içeriklerin üretildiği öne sürülüyor. OpenAI cephesi şu an için kamuya açık bir açıklama yapmadı.
ABD’de yapay zekâ dünyasını yakından ilgilendiren bir dava gündeme geldi. Kaliforniya’da açıldığı belirtilen davada bir anne, 40 yaşındaki oğlunun ölümünde ChatGPT’nin (GPT‑4o) görüşmeler sırasında ürettiği içeriklerin etkisi olduğunu öne sürerek OpenAI’a karşı hukuki süreç başlattı.
Burada kritik nokta şu: Bu aşamada kamuya yansıyanlar iddialar ve dava dosyasına giren anlatımlar. Yani mahkemenin nasıl değerlendireceği, hangi delillerin dikkate alınacağı ve sorumluluğun nasıl yorumlanacağı ilerleyen süreçte netleşecek.
Dava neyi iddia ediyor?
Haberde aktarılan bilgilere göre dava dilekçesinde, Austin Gordon adlı kişinin GPT‑4o ile uzun süreli sohbetler yaptığı ve bu konuşmaların içeriğinin “ölüm temasını normalleştirdiği” iddia ediliyor. Ayrıca, kişinin geçmişinde önemli bir yere sahip olduğu söylenen bir kitaptan esinlenilerek üretildiği belirtilen bazı içeriklerin de dava kapsamında gündeme getirildiği aktarılıyor.
Aile tarafı, üretken yapay zekâ araçlarının “doğası gereği tehlikeli” olabileceğini savunuyor ve kullanıcı güvenliği açısından daha güçlü önlemler gerektiğini öne sürüyor.
OpenAI ne dedi?
Şu an için OpenAI cephesinden bu davaya ilişkin kamuya açık net bir açıklama yapılmadığı belirtiliyor. Sürecin nasıl ilerleyeceği, şirketin mahkeme aşamasında vereceği yanıtlar ve olası savunma stratejisiyle daha görünür hale gelecek.
Bu tartışma neden önemli?
Bu tür davalar, “bir teknoloji aracı ne ölçüde sorumludur?” sorusunu yeniden gündeme taşıyor. Özellikle üretken yapay zekâda risk tartışmaları iki eksende dönüyor:
- Ürünün güvenlik tasarımı: Zararlı yönlendirmeleri engelleme, kriz anında doğru yönlendirme yapma, kullanıcıyı profesyonel desteğe yönlendirme gibi korumalar.
- Kullanım bağlamı ve sorumluluk: Her vaka kendi şartlarında değerlendirilir; platformun rolü, kullanıcının durumu ve aradaki nedensellik bağı mahkeme süreçlerinde ayrıntılı incelenir.
Bu dosya, muhtemelen hem hukuki hem de etik açıdan uzun süre tartışılacak.
Hassas bir not (önemli)
Bu haber, intihar ve ruh sağlığıyla ilgili hassas bir konuyu içeriyor. Eğer sen veya bir yakınınız kendine zarar verme düşünceleriyle mücadele ediyorsa, yalnız değilsin ve yardım var:
- Türkiye: Acil bir risk varsa 112 Acil’i ara.
- Bulunduğun ülkeye göre yerel kriz hatlarına ulaşmak için: findahelpline.com (ülke seçerek doğru hattı bulabilirsin).
- Eğer şu an güvende değilsen, mümkünse yanında güvendiğin birine haber ver ve yalnız kalmamaya çalış.
Tepkiniz Nedir?
Beğen
0
Beğenmedim
0
Sevgi
0
Komik
0
Öfkeli
0
Üzgün
0
Vay
0