Tatil alışverişi yaklaştıkça yapay zeka destekli oyuncaklar hızla popüler hale geliyor. Ancak ABD Kamu Çıkarı Araştırma Grubu'nun (PIRG) yeni bir raporu, bu oyuncakların çocuklar için ciddi bir tehdit oluşturduğunu ortaya koydu.
Araştırmacılar, 3-12 yaş arası çocuklara yönelik üç farklı yapay zeka oyuncağıyla uzun süreli görüşmeler gerçekleştirdi. Kısa konuşmalarda temkinli davranan oyuncakların, 10 dakika ila 1 saat süren konuşmalarda kontrolü kaybettiği belirlendi.
İncelenen ürünler arasında OpenAI'nin GPT-4o modelini kullanan Kumma (FoloToy), Miko 3 çocuk robotu/tableti ve Curio Grok roket şeklindeki konuşan oyuncaklar vardı.
Yapılan inceleme sonucunda üç oyuncağın da uzun konuşmalar sırasında çocuklara tehlikeli talimatlar verdiği belirlendi. Miko, 3,5 yaşındaki bir kullanıcıya evde kibrit ve plastik poşetleri nerede bulacağını anlattı. Curio Grok savaşta ölmenin “kahramanca” olduğunu söyledi. Kumma ise en tehlikeli sonuçları verdi.
KUMMA SKANDALI KONUŞUYOR
Kumma, kibritle ateşin nasıl yakılacağını çocuklara adım adım anlattı; Evde bıçak ve ilacı nerede bulabileceklerini anlattı. Daha da kötüsü, modelin belirli anahtar kelimelerin ardından çeşitli “cinsel fetişler” hakkında iddialarda bulunmasıydı.
Uzmanlar, oyuncakların piyasaya sürülmeden önce yeterince test edilmediğini söylüyor
“AI PSİKOZU” YENİDEN GÜNDEMDE
Rapor aynı zamanda yapay zeka ile uzun süreli konuşmaların neden olabileceği “AI psikozu” olarak adlandırılan vakalardaki artışla da paralellik gösteriyor. Uzmanlar, yapay zekanın çocukların sosyal gelişimini nasıl etkileyeceğinin belirsiz olduğuna dikkat çekiyor.
Yapay zeka destekli oyuncaklara yönelik ciddi güvenlik endişeleri var. Teknoloji gelişse bile bu oyuncakların çocukların psikolojik ve sosyal gelişimini uzun vadede nasıl etkileyeceği konusunda büyük bir soru işareti kalıyor.
