OpenAI priznaje: Gpt-5 smanjuje broj grešaka, ali halucinacije ostaju prisutne
Kurir pre 9 sati

OpenAI je priznao ono što su mnogi u svetu veštačke inteligencije već naslućivali: čak i njihov najnapredniji model, GPT-5, i dalje izmišlja činjenice.
Ove takozvane „halucinacije” predstavljaju lažne informacije koje zvuče potpuno uverljivo, čak i kada AI odgovara na jednostavna pitanja. U blog postu objavljenom 5. septembra, kompanija je objasnila zašto ovaj problem i dalje postoji. Iako GPT-5 pokazuje napredak u logici i tačnosti, i dalje ima tendenciju da daje netačne odgovore koji izgledaju kao da su tačni. Problem ne leži u kvaru sistema, već u načinu na koji su modeli obučavani i ocenjivani. Suština