Zašto veštačka inteligencija izmišlja odgovore Ne sme da ne zna, pa „halucinira”

Dnevnik pre 1 dan
Zašto veštačka inteligencija izmišlja odgovore Ne sme da ne zna, pa „halucinira”

Iako ChatGPT i druge modele veštačke inteligencije danas koriste gotovo svi, i to na razne načine, još uvek se desi da krenu da „haluciniraju“, ali i da samouvereno iznose činjenično netačne tvrdnje.

Često se to objašnjava lošim ulaznim podacima, ali je tim istraživača iz OpenAI-ja i Tehnološkog instituta Džordžije u nedavno objavljenom radu dokazao da čak i sa savršenim podacima za obuku, LLM-ovi ne mogu znati sve — delom i zato što su neka pitanja jednostavno neodgovoriva. Ipak, to ne znači da su halucinacije neminovne. Veštačka inteligencija bi mogla jednostavno da prizna: „Ne znam.“ Zašto to onda ne čini? Koren problema, kažu istraživači, leži u načinu na

Dnevnik »

Nauka & Tehnologija, najnovije vesti »