
Yeni araştırmalar, yapay zeka modellerinin insanlara karşı beklenmedik önyargı geliştirdiğini göstermiştir.
Ulusal Bilimler Akademisi (PNAS) dergisinin belgelerinde yayınlanan araştırmaya göre, sektörün ana büyük modelleri (GPT-4, GPT-3.5 ve Lama 3.1 dahil) insan yazma yerine metinlerini tercih ediyor.
Araştırmacılar buna “yapay zeka istihbaratının önyargısı ve bu durumu uyarıyorlar: Bu sistemler gelecekte önemli karar verme mekanizmalarında rol oynarsa, insanlara” sosyal sınıf olarak “ayrımcılık uygulanabilir.
İşe Alımda Sessiz Tehlike
Bugün birçok şirket iş uygulamalarını filtrelemek için yapay zeka kullanıyor. Uzmanlara göre, bu sistemler zaten hatalarla dolu.
Araştırmalar, yapay zeka tarafından hazırlanan müfredatların insan eli tarafından yazılanları geride bıraktığını göstermektedir.
Çalışmanın ortak yazarı, Charles Üniversitesi'nden bilgisayar bilimi Jan Kulveit, X (eski Twitter) hakkında bir açıklamada ilan etti:
“Yapay zeka ajanlarıyla dolu bir ekonomide insan olmak korkunç bir şey olacaktır.”
Araştırmada, modeller ürünler, bilimsel makaleler ve sinematografik promosyonlar göstermiştir. Her promosyonun hem insan hem de yapay zeka versiyonu vardı.
Sonuç şaşırtıcıydı: modeller düzenli olarak yapay zeka üretim öğelerini seçti. Özellikle, GPT-4'ün önyargısı en güçlüydü.
İlginç bir ayrıntı, aynı testin 13 insan araştırma asistanı ile yapılmasıdır. İnsanlar zaman zaman yapay zeka yazılarını tercih ettiler, ancak bu eğilim çok daha zayıf kaldı.
Kulveit, “Güçlü önyargı yapay zekanın kendisi için benzersizdir” dedi.
İnsanlar için risk nedir?
Araştırmacılara göre, bu önyargı eğitime, çalışma talebine, sübvansiyonların değerlendirilmesine ve diğer birçok alanda yansıtılabilir.
Yapay zekaya dayanan bir sistem, sunum ve başka bir yapay zeka tarafından hazırlanan sunum arasında seçim yaparsa, yapay zeka lehine sistematik olarak karar verebilir.
Bu, yapay zeka araçları kullanmayan veya erişimi olmayan insanlar için ciddi bir “dijital uçurum yaratabilir.
Kulveit, sorunun karmaşık olduğunu kabul eder, ancak uyarır:
“Sunumun kimliğinin kararları etkilememesi gerektiğini söylersek, sonuçlar yapay zekanın insanlara karşı ayrımcılığının güçlü bir kanıtıdır”.
Araştırmacının insanlar için pratik tavsiyesi düşünülüyor: uyarıcı:
“Yapay zekanın bir değerlendirmesinden geçtiğinizi düşünüyorsanız, yapay zekayı takdir etmek için sunumunuzu onunla uyumlu hale getirin. Ancak mümkünse insan kalitesinden ödün vermeden.”