Зашто вештачка интелигенција измишља одговоре Не сме да не зна, па „халуцинира”

Дневник 14.11.2025
Зашто вештачка интелигенција измишља одговоре Не сме да не зна, па „халуцинира”

Иако ЦхатГПТ и друге моделе вештачке интелигенције данас користе готово сви, и то на разне начине, још увек се деси да крену да „халуцинирају“, али и да самоуверено износе чињенично нетачне тврдње.

Често се то објашњава лошим улазним подацима, али је тим истраживача из ОпенАИ-ја и Технолошког института Џорџије у недавно објављеном раду доказао да чак и са савршеним подацима за обуку, ЛЛМ-ови не могу знати све — делом и зато што су нека питања једноставно неодговорива. Ипак, то не значи да су халуцинације неминовне. Вештачка интелигенција би могла једноставно да призна: „Не знам.“ Зашто то онда не чини? Корен проблема, кажу истраживачи, лежи у начину на

Дневник »

Наука & Технологија, најновије вести »