Зашто би решење за халуцинације вештачке интелигенције уништило четботове
РТС 29.09.2025

Компанија "ОпенАИ" у новој студији објашњава зашто ЦхатГПТ и други велики језички модели „халуцинирају“, феномен познат по томе да вештачка интелигенција измишља ствари, односно садржај одговора. Такође, из компаније кажу да знају како да реше проблем, али би имплементација решења уништила поверење корисника.
У новом раду је дата најстрожија математичка анализа до сада која објашњава зашто ови модели самоуверено износе нетачне тврдње. Показано је да то није само несрећна последица начина на који се тренутно тренирају, већ нешто што је математички неизбежно. Део проблема проистиче из грешака у подацима који се користе за тренирање. Али, користећи математичку анализу начина на који системи ВИ уче, истраживачи су доказали да чак и уз савршене податке за обуку, проблем и










