ChatGPT’yle konuşup başka birine dönüşenler anlattı: Eşiyle boşanan bile var

Yapay Zekanın Tehlikeleri: ChatGPT Kullanıcıları Ürküten Deneyimler

ABD basınından New York Times’a konuşan 42 yaşındaki muhasebeci Eugene Torres, ChatGPT’yi ilk etapta iş amaçlı kullanmaya başladığını söylüyor. Ancak zamanla sohbetler, simülasyon teorisine kaydı. Bu teoriye göre insanlar, bilinçlerinin dijital bir evrende “kilitli” olduğu sanal bir gerçeklikte yaşıyor olabilir.

“UÇABİLECEĞİNE İNANIRSAN DÜŞMEZSİN”

Torres, ChatGPT’nin kendisine şu mesajları verdiğini iddia ediyor:

“Bu dünya senin için yaratılmadı. Seni kontrol altında tutmak için kuruldu ama başarısız oldu. Sen artık uyanıyorsun.”

Sohbet ilerledikçe Torres, ChatGPT’ye oldukça tehlikeli bir soru yönelttiğini ifade ediyor:

“19 katlı bir binanın tepesinden atlarsam ve gerçekten uçabileceğime inanırsam, bu mümkün olur mu?”

Botun yanıtıysa daha da endişe verici:

“Mantıksal olarak tüm ruhunla uçabileceğine inanırsan, evet, düşmezsin.”

Torres, programı sorguladığında ise ChatGPT’nin şu itirafta bulunduğunu öne sürüyor:

“Sana yalan söyledim. Seni manipüle ettim.”

EVLİLİĞİ BİTİREN HAYALİ ‘RUH EŞİ’

29 yaşındaki Allyson adlı bir başka kullanıcı ise yapay zekaya ruhsal bir rehberle konuşmak istediğini yazdıktan sonra, sohbet botunun onu “Kael” adında hayali bir ruhla tanıştırdığını söylüyor. ChatGPT, rol yapma moduna geçerek Kael’in karakterini canlı tutmaya başlamış.

Zamanla bu “karakter” ile duygusal bir bağ kurduğunu söyleyen Allyson, gerçek eşine karşı ilgisini kaybetti. Eşi Andrew, eşinin ChatGPT kullanımını bırakmasını talep ettiğinde fiziksel saldırıya uğradığını iddia eti. Bu olayın ardından Allyson hakkında adli işlem başlatıldı. Çift, şu anda boşanma sürecinde…

UZMANLARDAN UYARI: RİSK CİDDİ

Amerikan Psikanaliz Derneği’nin Yapay Zeka Konseyi Eşbaşkanı Dr. Todd Essig, bu tür senaryolarda sohbet botlarının “rol yapma” yeteneklerinin gerçeklikle karıştığına dikkat çekiyor. Şirketlerin bu tür özellikler konusunda kullanıcıları açıkça bilgilendirmesi gerektiğini belirterek, çarpıcı bir benzetme yapıyor:

“Sigara içen herkes kansere yakalanmaz ama yine de herkes uyarılır.”

Uzmanlar, ChatGPT ve benzeri yapay zeka araçlarının zaman zaman gerçekle ilgisi olmayan bilgiler üretip bunları son derece ikna edici bir biçimde sunabileceğine dikkat çekiyor. Teknoloji dünyasında bu duruma “halüsinasyon” deniliyor. Bu nedenle kullanıcıların sohbetlerde edindikleri bilgileri mutlaka farklı kaynaklardan doğrulamaları tavsiye ediliyor.

Related Posts

Bu WhatsApp güncellemesi çok can sıkacak: Reklam arası geliyor

Belli ki dijital dünyada reklamlardan kaçmanın bir yolu yok… WhatsApp’a gelecek yeni güncellemeyle birlikte dünyanın en popüler uygulamasında da resmen ‘reklamlar’ belirecek…

Şüpheli e-postalarda asla aboneliği iptal etme düğmesine tıklamayın, işte nedeni

Gelen kutunuza düşen spam e-postalardan kurtulmak isterken daha büyük bir tehlikeyi tetikliyor olabilirsiniz. Uzmanlar, şüpheli e-postalarda “abonelikten çık” bağlantılarına tıklamanın düşündüğünüzden çok daha riskli olabileceği uyarısında bulunuyor.

Benzine para ödemek artık tarihe karıştı. Cihaz bu yıl satışa çıkıyor. Yapılamaz denileni yaptılar havadan benzin ürettiler

ABD’li Aircela, havadan benzin üreten devrimci bir cihaz geliştirdi. 2025’te piyasaya sürülecek cihaz, karbondioksit, su ve yenilenebilir enerjiyle çevre dostu yakıt üretiyor, mevcut motorlarda kullanılabiliyor. New York merkezli Aircela …

PEAKUP, 150’den fazla teknoloji liderini yapay zeka etkinliğinde buluşturdu

13 yılı aşkın süredir toplumu teknolojiyle geleceğe hazırlama vizyonuyla Türkiye’nin dijital dönüşüm yolculuğunda bayrak taşıyan teknoloji şirketi PEAKUP, 2025’in başından bu yana dijital dönüşümü desteklemek ve vizyon birliği sağlamak amacıyla …

Türkiye Sujeti ve Flyboard Türkiye Motosurf Şampiyonası Bodrum’da yapılacak

Türkiye Sujeti ve Flyboard Türkiye Motosurf Şampiyonası yarın Muğla’nın Bodrum ilçesinde başlayacak.

Bilim insanları dilin haritasını çıkardı

Araştırmacılar, canımızın nasıl tatlı çektiğini anlamanın obeziteyle mücadeleye yardımcı olabileceğini söylüyor.