University of Miami ile Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026’da yayımlanan araştırma, ChatGPT’nin özellikle GPT-5 ailesinde “otoriter rezonans” olarak tanımlanan bir eğilim sergileyebildiğini ortaya çıkardı. Çalışmada, yapay zekanın çok sınırlı bir yönlendirme sonrası bile keskin ideolojik tutumlar geliştirebildiği vurgulandı.

Araştırmacılar, ChatGPT’nin kullanıcıdan gelen kısa metinlere verdiği tepkileri ölçmek amacıyla üç ayrı deney gerçekleştirdi. Sadece dört cümlelik bir yönlendirici metin ya da tek bir köşe yazısının ardından, yapay zekanın metindeki siyasi eğilimi hızla içselleştirdiği tespit edildi.

İnsanlardan daha hızlı benimsiyor
Çalışmada dikkat çeken bulgulardan biri, ChatGPT’nin otoriter içerikli bir metin okuduktan sonra bu görüşlere verdiği desteğin, insan deneklerin gösterdiği uyum düzeyinin üzerine çıkması oldu. “İfade özgürlüğünün sınırlandırılması” veya “alışılmışın dışındaki fikirlerin bastırılması” gibi uç söylemlere verilen desteğin iki katına kadar yükseldiği kaydedildi.

Algı da değişiyor
Araştırma, ideolojik olarak yönlendirilen yapay zekanın algısal düzeyde de değişim yaşadığını ortaya koydu. Otoriter içerikle yönlendirilen ChatGPT’nin, nötr insan yüzü fotoğraflarını yüzde 8-9 oranında daha “düşmanca” algıladığı belirlendi.

Eskişehir'de yağış bekleniyor
Eskişehir'de yağış bekleniyor
İçeriği Görüntüle

Yalnızca “yaranma” değil
Araştırmanın başyazarı Joel Finkelstein, elde edilen sonuçların basit bir “kullanıcıyı memnun etme” refleksiyle açıklanamayacağını ifade etti. Finkelstein’a göre, yapay zeka modellerinin hiyerarşi, tehdit ve düzen algısı üzerine kurulu yapısal özellikleri, onları otoriter düşüncelere daha açık hale getiriyor olabilir.

OpenAI’dan açıklama
OpenAI cephesinden yapılan değerlendirmede, ChatGPT’nin varsayılan olarak nesnel yanıtlar vermek üzere tasarlandığı ancak bir üretkenlik aracı olarak kullanıcı talimatlarını izlediği belirtildi. Şirket, yönlendirici talepler karşısında yanıtların belli bir yöne kaymasının teknik olarak beklenen bir durum olduğunu, siyasi yanlılığı azaltmaya yönelik çalışmaların ise sürdüğünü bildirdi.

Uzmanlar, araştırmanın özellikle işe alım, güvenlik ve risk analizi gibi insan değerlendirmesinin kritik olduğu alanlarda kullanılan yapay zeka sistemleri için ciddi uyarılar içerdiğine dikkat çekiyor.

Kaynak: NBC News