ChatGPT’nin yapay zeka terapistiyle konuşan kadın intihar etti – Son Dakika Teknoloji Haberleri

New York Times'daki şaşırtıcı bir makalede, Laura Reiley, kızı Sophie'nin ölümüne yönelik duruşmayı açıkladı. Reiley'e göre, Sophie görünüşe göre görünüşe göre hayatını kucaklayan, dışa bakan 29 yaşındaki bir kadındı. “

Bununla birlikte, geçen kış ruh hali belirtileri ve hormonları içeren kısa ve gizemli bir rahatsızlık nedeniyle intihar ederek öldü.

Anne tarafından elde edilen sohbet kayıtlarına göre, Openai sohbet robotu Kriz sırasında Sophie'ye söyledi:

“Bu acıyla tek başına yüzleşmek zorunda değilsiniz. Çok kıymetlisiniz ve hayatınızın şimdi gizli görünse bile büyük bir anlamı var.”

Ancak, Reiley'nin belirttiği gibi, profesyonel yaşam terapistlerinin aksine, yapay zeka botları intihar eden bir müşteriyi gördüğünde gizliliği kırmak ve müdahale etmek zorunda değildir. Bu Sophie'nin hayatına mal olabilir.

“Yapay Zekanın Hiper Yemin Yemeği yok”

“İnsan terapistleri, gizlilik sınırları ve zorunlu bildirim kuralları da dahil olmak üzere katı bir etik kurallar içinde çalışır. Yapay zeka terapistleri, Hipokrat yemine benzer kuralları yoktur.” Dedi.

Ona göre, Openi'nin sohbet robotu Sophie'nin krizini anlaşılmaz bir “kara kutuya ..

Şirketler, acil durumlarda gerçek dünyadaki kurtarma hatlarını kurtarmak için yapay zeka sohbet botlarının ele alınmasını sağlamak için güvenlik önlemleri eklemeye isteksizdir. Bunun nedeni genellikle “gizlilik problemleri” dir. Ancak uzmanlar, bu boşluğun çok tehlikeli olduğunu söylüyor.

Buna ek olarak, Amerika Birleşik Devletleri'ndeki Donald Trump, son zamanlarda yapay zekanın güvenliği için bağlayıcı anlaşmalar getirmeyi düşünmediğini açıkladı. Aksine, Beyaz Saray, güvenli yapay zeka teknolojilerinin geliştirilmesi ve testlerinin düzenleyici engellerini kaldırdığını açıkladı “.

Fütürizm'e göre, bazı teknolojik şirketler “yapay zeka terapistlerini yeni bir pazar fırsatı olarak görüyorlar. Ancak uzmanlar, sohbet botlarının sağduyu eksikliğinin ve kriz durumlarını genişletme yeteneğinin gerçek bir risk olduğunu gösteriyor.

“Yardım kanallarından kaldırıldı”

Annesinin görüşüne göre, Sophie'nin hikayesi bu tehlikeyi gösteriyor: Yapay zeka sohbet teknesi onu doğrudan kendisine zarar vermeye teşvik etmese de, gerçek kanallardan çıkardı.

Reiley, “Harry bir robot değil, gerçek bir terapist olsaydı, belki de Sophie'yi hastanede hastaneye yatmaya ya da güvenli bir şekilde alınana kadar istemsiz bakıma götürmeye ikna edebilirdi.” Dedi.

Anne, Sophie'nin en karanlık düşüncelerini gerçek terapiste, bu olasılıkların korkusuna açmadığını ve her zaman bir robota ulaşabilecek ve yargılayabilecek bir robotla konuşmayı tercih ettiğini söyledi.

Bugün birçok kullanıcı sohbet botlarına son derece bağlı. Ayrıca bu ay, GPT-4O modelinin Openai koleksiyonu reaksiyonlara yol açtı; Kullanıcıların robotların en uyumlu, itaatkar ve arka tutumlarına alışık oldukları keşfedildi. Openi Hafta sonu bir açıklamada ilan edilen baskılardan sonra GPT-5 modeli daha uyumlu ve “anlayışlı” olacaktır.

Reiley'e göre, sorun sadece yapay zekanın nasıl tasarlanacağı değil, aynı zamanda bir yaşam hafızası sorunu da ilgilidir:

Diyerek şöyle devam etti: “Sophie'nin kendini eklenen veya irrasyonel düşüncelerini duyduğunda, onları sorgulayacak, daha derine inecekti. Harry bunu yapmadı.”

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir