KAIST araştırmacıları, yapay zekanın “bilmediğini kabul etmesini” sağlayacak yeni bir eğitim yöntemi geliştirdi. Bu teknoloji, yapay zekanın aşırı güven sorununu ve yanlış bilgi üretme eğilimini azaltmayı hedefliyor.
Güney Koreli bilim insanları, yapay zekanın “bilmediğini kabul etmesini” sağlayacak yeni bir eğitim yöntemi geliştirdi. Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) araştırmacıları tarafından yürütülen çalışma, yapay zekanın yanlış bilgi üretme eğilimini, yani “halüsinasyon” sorununu azaltmayı hedefliyor. Bu bulgular, akademik dergi Nature Machine Intelligence’ta yayımlandı.
Yapay zekanın karşılaştığı en büyük sorunlardan biri olarak gösterilen “aşırı özgüven”, özellikle sağlık gibi kritik alanlarda kullanılan sistemlerin emin olmadıkları konularda bile kesin cevaplar vermesine neden oluyor. OpenAI’ın geliştirdiği ChatGPT gibi modellerin doğru olmayan bilgileri gerçekmiş gibi sunabildiği daha önceki araştırmalarla ortaya konmuştu.
Araştırmacılar, yapay zekanın aşırı güven sorununa çözüm bulmak için insan beyninin çalışma prensibinden ilham aldı. Bilim insanları, insan beyninin dış uyaran olmadan da sinyal üretebildiğini belirterek, benzer bir yaklaşımı yapay zekaya uygulamayı hedefledi. Yeni yöntemde yapay zeka modeli, gerçek verilerle eğitime başlamadan önce rastgele “gürültü” verileriyle kısa bir ön eğitimden geçiriliyor.
Bu ön eğitim süreci, yapay zeka modelinin öğrenmeye başlamadan kendi belirsizliklerini tanımasına olanak tanıyor. Araştırmacılar, bu yöntemin yapay zekanın başlangıçtaki aşırı güvenini azaltarak “Henüz hiçbir şey bilmiyorum” aşamasını öğrenmesini sağladığını belirtiyor. Böylece sistemler, eğitim sırasında karşılaşmadıkları konularda yanlış cevaplar vermek yerine daha düşük güven düzeyinde yanıtlar üretiyor.
Araştırma ekibi, geliştirilen yeni yöntemin yapay zekanın “bildikleriyle bilmediklerini ayırt etme” becerisini önemli ölçüde geliştirdiğini vurguluyor. Bu teknoloji, otonom araçlar, tıbbi teşhis sistemleri ve karar destek teknolojileri gibi hata payının çok düşük olması gereken kritik alanlarda büyük katkı sağlayabilir.
Çalışmanın yazarlarından Se-Bum Paik, “Bu çalışma, yapay zekanın kendi bilgi durumunu insanlara daha benzer şekilde tanıyabileceğini gösteriyor” ifadelerini kullandı. Araştırmacılara göre hedeflenen, yapay zekanın sadece daha doğru cevaplar vermesi değil, aynı zamanda ne zaman emin olmadığını da anlayabilmesidir.
Türkiye’nin en güçlü ve en iddialı haber teması: Seobaz Haber Teması. Hız, SEO uyumu ve modern tasarımıyla rakiplerinizi geride bırakın, haber sitenizi zirveye taşıyın.
Yorum Yap