Зашто су програмери поузданији од вештачке интелигенције?
Телеграф 13.04.2025 | Телеграф.рс/Горан Лазаров

Истраживачи са Универзитета Тексас у Сан Антонију (УТСА) спровели су једну од најопсежнијих студија до сада о безбедносним ризицима коришћења вештачке интелигенције (АИ) за развој софтвера.
Њихови налази истичу критичну рањивост коју су назвали „халуцунација", узроковану врстом грешке у којој велики језички модели ЛЛМ (Ларге Лангуаге Модел) препоручују непостојеће софтверске пакете током генерисања кода. Истраживање су спровели студенти докторских студија рачунарских наука УТСА, а требало би да буде објављено на престижном УСЕНИКС безбедносном симпозијуму 2025. Пројекат је укључивао мултиинституционални тим укључујући истраживаче са више












