Оксфорд: АИ халуцинације представљају директну претњу науци
Бенцхмарк 27.11.2023 | Сара Смоловић

Велики језички модели (ЛЛМ) који се користе и у актуелним четботовима вештачке интелигенције (АИ), показују алармантну склоност ка генерисању лажних информација које представљају као тачне.
То су другим речима практично АИ халуцинације и као такве, представљају ризике и директну претњу науци због чега научна заједница не би требало да их користи као извор знања, упозоравају истраживачи са Оксфордског интернет института. Према њиховом раду објављеном у часопису Натуре Хуман Бехавиоур, „велики језички модели су дизајнирани да производе корисне и убедљиве одговоре без било каквих апсолутних гаранција о њиховој тачности или усклађености са