KAIST araştırmacıları tarafından geliştirilen yeni yöntem, yapay zekanın “halüsinasyon” olarak adlandırılan yanlış bilgi üretme sorununu azaltmayı hedefliyor. Çalışmanın sonuçları Nature Machine Intelligence’ta yayımlandı.

Yapay zekanın en büyük sorunlarından biri
Uzmanlara göre yapay zeka sistemlerinin en kritik problemlerinden biri, emin olmadıkları durumlarda bile kesin yanıtlar vermesi. Özellikle sağlık, güvenlik ve karar destek sistemlerinde bu durum ciddi risk oluşturabiliyor.

OpenAI tarafından geliştirilen ChatGPT gibi büyük dil modellerinin zaman zaman yanlış bilgileri doğruymuş gibi sunabildiği daha önce birçok araştırmada ortaya konmuştu.

İnsan beyninden ilham alan yöntem
Araştırma ekibi, çözüm için insan beyninin çalışma sisteminden esinlendi. Bilim insanları, beynin doğum öncesinde bile dış uyaran olmadan sinyaller üretebildiğini belirterek benzer yaklaşımı yapay zekaya uyguladı.

Yeni yöntemde model, gerçek verilerle eğitilmeden önce rastgele “gürültü” verileriyle kısa bir ön eğitim sürecinden geçiriliyor. Böylece sistem, öğrenmeye başlamadan önce kendi belirsizliğini tanımayı öğreniyor.

“Henüz hiçbir şey bilmiyorum” yaklaşımı
Araştırmacılar, yöntemin yapay zekanın başlangıçtaki aşırı özgüvenini azalttığını ve “Henüz hiçbir şey bilmiyorum” aşamasını öğrenmesini sağladığını ifade etti.

Bu sayede modellerin, eğitim sürecinde karşılaşmadıkları konularda kesin ve yanlış cevaplar üretmek yerine daha düşük güven seviyesinde yanıt vermeye başladığı belirtildi.

Kritik sektörlerde kullanılabilir
Bilim insanları, yöntemin özellikle otonom araç teknolojileri, tıbbi teşhis sistemleri ve hassas karar destek mekanizmalarında önemli katkılar sağlayabileceğini düşünüyor.

Galibaf’tan ABD’ye uyarı: "İran halkının haklarını kabul etmekten başka alternatif yoktur"
Galibaf’tan ABD’ye uyarı: "İran halkının haklarını kabul etmekten başka alternatif yoktur"
İçeriği Görüntüle

Çalışmanın yazarlarından Se-Bum Paik, “Bu çalışma, yapay zekanın kendi bilgi durumunu insanlara daha benzer şekilde tanıyabileceğini gösteriyor” değerlendirmesinde bulundu.

Araştırmacılar, gelecekte yapay zekanın yalnızca doğru cevap vermesinin değil, ne zaman emin olmadığını anlayabilmesinin de büyük önem taşıyacağını vurguluyor.

Kaynak: Independent