Оксфорд: АИ халуцинације представљају директну претњу науци

Бенцхмарк 27.11.2023  |  Сара Смоловић
Оксфорд: АИ халуцинације представљају директну претњу науци

Велики језички модели (ЛЛМ) који се користе и у актуелним четботовима вештачке интелигенције (АИ), показују алармантну склоност ка генерисању лажних информација које представљају као тачне.

То су другим речима практично АИ халуцинације и као такве, представљају ризике и директну претњу науци због чега научна заједница не би требало да их користи као извор знања, упозоравају истраживачи са Оксфордског интернет института. Према њиховом раду објављеном у часопису Натуре Хуман Бехавиоур, „велики језички модели су дизајнирани да производе корисне и убедљиве одговоре без било каквих апсолутних гаранција о њиховој тачности или усклађености са

Интернет »

Кључне речи

Наука & Технологија, најновије вести »