Зашто вештачка интелигенција измишља одговоре Не сме да не зна, па „халуцинира”
Дневник 14.11.2025

Иако ЦхатГПТ и друге моделе вештачке интелигенције данас користе готово сви, и то на разне начине, још увек се деси да крену да „халуцинирају“, али и да самоуверено износе чињенично нетачне тврдње.
Често се то објашњава лошим улазним подацима, али је тим истраживача из ОпенАИ-ја и Технолошког института Џорџије у недавно објављеном раду доказао да чак и са савршеним подацима за обуку, ЛЛМ-ови не могу знати све — делом и зато што су нека питања једноставно неодговорива. Ипак, то не значи да су халуцинације неминовне. Вештачка интелигенција би могла једноставно да призна: „Не знам.“ Зашто то онда не чини? Корен проблема, кажу истраживачи, лежи у начину на










