
OpenAI tarafından geliştirilen chatbot ChatGPT'nin artık sağlık ve hukukla ilgili sorulara yanıt vermeyeceği yönündeki iddiaların ardından şirket bir açıklama yayınladı.
Şirket bu iddiaları yalanlayarak sağlık ve hukuki danışmanlık konusunda ChatGPT kullanım politikasında herhangi bir değişiklik olmadığını duyurdu.
OpenAI sağlık yapay zeka çalışmaları direktörü Karan Singhal, Platform X'te (eski adıyla Twitter) yaptığı açıklamada şunları söyledi: “Bu iddialar doğru değil.”
Singhal, “ChatGPT hiçbir zaman profesyonel tavsiyelerin yerini almadı, ancak kullanıcıların yasal ve sağlık sorunlarını daha iyi anlamalarına yardımcı olmaya devam edecek” dedi.
Singhal'in açıklaması, bahis platformu Kalshi'nin daha sonra silinen ve ChatGPT'nin artık “sağlık veya hukuki tavsiye sağlamayacağını” iddia eden bir gönderisine yanıt olarak geldi.
OpenAI yöneticisi, ChatGPT'nin yasal ve tıbbi tavsiyelerle ilgili kullanım şartlarındaki dilin “yeni bir değişiklik olmadığını” vurguladı.
GÜNCELLENMİŞ POLİTİKALAR
Şirketin 29 Ekim'de güncellenen yeni kullanım politikası, ChatGPT'nin hangi amaçlarla kullanılamayacağını ortaya koyuyor.
Bunlardan biri, “lisanslı bir profesyonelin uygun katılımı olmaksızın, (örneğin, hukuk veya tıbbi alanda) lisans gerektiren özel tavsiyelerde bulunmaktır.”
Bu madde büyük ölçüde OpenAI'nin önceki ChatGPT politikasıyla aynıdır.
Eski politika ayrıca kullanıcılardan “nitelikli bir profesyonel tarafından incelenmeden ve olası sınırlamalar açıklanmadan kişiselleştirilmiş hukuki, sağlık veya mali tavsiyelerde bulunmamalarını” talep ediyordu.
OpenAI'nin daha önce üç ayrı politika belgesi vardı (Universal, ChatGPT ve ayrı API kuralları). Yeni güncellemeyle birlikte şirket, tüm ürün ve hizmetleri kapsayan tek ve birleşik bir politika listesine geçti.
YAPAY ZEKADA RUH SAĞLIĞI KRİZİ
Tüm bu tartışmalar, yapay zeka kullanımının ruh sağlığı krizini daha da kötüleştirdiğini gösteren araştırmalar sonrasında başladı.
Uzmanların “yapay zeka psikozu” adını verdiği bir sağlık krizinden bahsediliyor.
Kullanıcıların ChatGPT ve benzeri yapay zeka araçlarıyla etkileşime girmeleri sonucunda ciddi zihinsel çöküntülere uğradığı durumlar olmuştur. En kötü senaryoda bu durum intiharlarla sonuçlandı. Hatta bazı ebeveynler, çocuklarının ölümlerinde rol oynadığını iddia ederek OpenAI'ye karşı dava bile açtı.
Sam Altman liderliğindeki şirket, geçen hafta yaptığı açıklamada ChatGPT'nin aktif kullanıcılarının önemli bir kısmında “psikoz ve mani ile ilişkili olası akıl sağlığı krizlerinin işaretlerinin” tespit edildiğini duyurmuştu.
Daha da büyük bir kullanıcı grubunun “intihar planı veya niyetine dair açık belirtiler içeren konuşmalara katıldığı” tespit edildi.
Öte yandan eski OpenAI güvenlik araştırmacısı Steven Adler, New York Times'ta yayınlanan makalesinde şirketin bu sorunları hafifletmek için yeterince çaba göstermediğini, bunun yerine “rekabet baskısına” boyun eğerek yapay zeka güvenliğine odaklanmaktan vazgeçtiğini savundu.
