Pouzdanost AI modela pod lupom: Povećan rizik od izmišljenih informacija
Serbian News Media pre 3 sata

Najnovije istraživanje kompanije OpenAI otkriva zabrinjavajući trend: njihovi napredni AI modeli, uključujući GPT-o3 i o4-mini, pokazuju povećanu sklonost ka generisanju „halucinacija“ – netačnih ili potpuno izmišljenih informacija.
Dok se ovi modeli reklamiraju da oponašaju ljudsku logiku i „razmišljaju korak po korak“, podaci ukazuju na ozbiljan problem pouzdanosti. Istraživanje je pokazalo da je GPT-o3 halucinirao u trećini zadataka na testu o javnim ličnostima, što je dvostruko više u odnosu na prethodni model. Još kompaktniji o4-mini bio je još gori, sa 48% halucinacija. Kada su testirani sa opštim pitanjima, udeo halucinacija je skočio na 51% za o3 i čak 79% za o4-mini. Ova pojava se