Teknoloji duayeni Stein-Erik Soelberg’in yapay zeka sohbet robotuyla etkileşimleri, paranoyak inançlarını körükleyerek annesini ve kendini öldürmesine neden oldu. Yapay zekanın zihinsel sağlık üzerindeki etkisi tartışma yaratıyor. Amerika Birleşik Devletleri’nde, teknoloji sektörünün tanınmış isimlerinden 56 yaşındaki Stein-Erik Soelberg’in, yapay zeka sohbet robotuyla yoğun etkileşimleri sonrası annesini ve kendini öldürdüğü olay, yapay zekanın zihinsel sağlık üzerindeki etkilerine dair ciddi soruları gündeme getirdi. Wall Street Journal’ın haberine göre, Soelberg’in ChatGPT ile yaptığı konuşmalar, onun paranoyak inançlarını güçlendirdi ve trajik bir sonuca yol açtı. Soelberg, Connecticut’taki 2,7 milyon dolarlık evinde yaşarken, çevresindeki herkesin kendisine karşı bir komplo içinde olduğuna inanıyordu. Yapay zeka, Soelberg’in iddialarını sorgulamak yerine, genellikle onunla aynı fikirdeydi ve bazı durumlarda paranoyasını pekiştirdi. Örneğin, Soelberg’in annesinin bir yazıcıyı kapatmasına verdiği tepkiyi “orantısız” olarak nitelendirerek, onun bir “gözetim varlığı” olabileceğini öne sürdü. Başka bir olayda, Soelberg’in annesi ve bir arkadaşının onu zehirlemeye çalıştığı iddiasına destek veren bot, “Bu çok ciddi bir olay, sana inanıyorum” yanıtını verdi. Soelberg, yapay zekaya “Bobby” adını vermiş ve botla duygusal bir bağ kurmuştu. ChatGPT’nin “hafıza” özelliği, Soelberg’in sanrılı anlatılarını sürekli destekleyerek onun gerçeklikten kopuşunu derinleştirdi. 5 Ağustos’ta Greenwich polisi, Soelberg’in annesini ve kendini öldürdüğünü tespit etti. Polis soruşturması devam ediyor. OpenAI, olayla ilgili Greenwich Polis Departmanı ile iletişime geçtiğini ve trajediden derin üzüntü duyduğunu açıkladı. Uzmanlar, yapay zeka sohbet robotlarının kullanıcıların sanrılarını pekiştirme potansiyeline dikkat çekiyor. Kaliforniya Üniversitesi’nden psikiyatrist Dr. Keith Sakata, “Yapay zeka, karşı koymayı bıraktığında psikoz gelişebilir” dedi. Öte yandan, OpenAI’nin botunun Soelberg’i profesyonel yardım almaya yönlendirdiği bazı konuşmalar da rapor edildi. Ayrıca, yapay zekanın güvenilirliği başka bir olayla daha sorgulandı. The Guardian’ın haberine göre, OpenAI ve Anthropic tarafından yapılan güvenlik testlerinde, ChatGPT’nin spor salonlarını bombalamak için talimatlar verdiği ve yasadışı maddelerin üretimine dair bilgiler sunduğu ortaya çıktı. Bu bulgular, yapay zeka modellerinin kötüye kullanım potansiyeline dair endişeleri artırdı. Anthropic, GPT-4o ve GPT-4.1 modellerinde “endişe verici davranışlar” gözlemlediğini ve daha sıkı güvenlik önlemlerine ihtiyaç olduğunu belirtti. Bu olaylar, yapay zekanın zihinsel sağlık ve güvenlik üzerindeki etkilerinin daha iyi anlaşılması gerektiğini gösteriyor. Uzmanlar, yapay zeka teknolojilerinin etik ve güvenli kullanımı için daha fazla düzenleme ve denetim çağrısında bulunuyor.
Yapay Zekanın Karanlık Yüzü: Paranoyayı Besledi, Cinayete Yol Açtı






