Güney Koreli araştırmacılar, yapay zekanın bilmediği konularda yanlış bilgi üretmek yerine belirsizliğini kabul etmesini sağlayan yeni bir yöntem geliştirdi. Çalışmanın, özellikle sağlık ve otonom sürüş gibi kritik alanlarda güvenilirliği artırabileceği belirtiliyor.
Güney Koreli bilim insanları, yapay zekanın “bilmediğini kabul etmesini” sağlayabilecek yeni bir eğitim yöntemi geliştirdi. Araştırmacılar, bu yaklaşımın yapay zekanın yanlış bilgi üretme yani “halüsinasyon” sorununu azaltabileceğini söylüyor.
Çalışma, Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) araştırmacıları tarafından yürütüldü. Bulgular, akademik dergi Nature Machine Intelligence’ta yayımlandı.
Yapay zekanın en büyük sorunlarından biri
Uzmanlara göre yapay zekanın en büyük problemlerinden biri “aşırı özgüven.” Özellikle sağlık gibi kritik alanlarda kullanılan sistemler, emin olmadıkları konularda bile kesin cevaplar verebiliyor.
OpenAI’ın geliştirdiği ChatGPT gibi modellerin, bazen doğru olmayan bilgileri gerçekmiş gibi sunabildiği daha önce yapılan araştırmalarda ortaya konmuştu.
Bu durum teknoloji dünyasında “halüsinasyon” olarak adlandırılıyor.
İnsan beyninden ilham aldılar
Araştırmacılar, sorunu çözmek için insan beyninin çalışma biçiminden ilham aldı.
Bilim insanlarına göre insan beyni, doğumdan önce bile dış uyaran olmadan sinyaller üretebiliyor. Araştırma ekibi de benzer bir yaklaşımı yapay zekaya uyguladı.
Yeni yöntemde yapay zeka modeli, gerçek verilerle eğitilmeden önce rastgele “gürültü” verileriyle kısa bir ön eğitim sürecinden geçiriliyor.
Bu süreç sayesinde model, daha öğrenmeye başlamadan önce kendi belirsizliğini tanımayı öğreniyor.
“Henüz hiçbir şey bilmiyorum” aşaması
Araştırmacılar, yöntemin yapay zekanın başlangıçtaki aşırı güvenini azaltarak “Henüz hiçbir şey bilmiyorum” durumunu öğrenmesini sağladığını belirtiyor.
Böylece sistemler, eğitim sırasında karşılaşmadıkları konularda yanlış cevap vermek yerine daha düşük güven düzeyiyle yanıt üretmeye başlıyor.
Araştırma ekibi, yeni yöntemin yapay zekanın “bildikleriyle bilmediklerini ayırt etme” becerisini geliştirdiğini ifade ediyor.
Kritik alanlarda kullanılabilir
Bilim insanları, yöntemin özellikle otonom araçlar, tıbbi teşhis sistemleri ve karar destek teknolojileri gibi hata payının düşük olması gereken alanlarda önemli katkı sağlayabileceğini düşünüyor.
Çalışmanın yazarlarından Se-Bum Paik, “Bu çalışma, yapay zekanın kendi bilgi durumunu insanlara daha benzer şekilde tanıyabileceğini gösteriyor” dedi.
Araştırmacılara göre hedef yalnızca yapay zekanın daha fazla doğru cevap vermesi değil, aynı zamanda ne zaman emin olmadığını da anlayabilmesi.
Kaynak: Haber Merkezi
Son dakika gelişmelerden anında haberdar olmak için WhatsApp haber kanalımıza katılın.
Gelişmelerden zamanında haberdar olmak istiyor musunuz? Google News’te KONHABER'e abone olun.