Chat gpt sve više laže i izmišlja Niko nema objašnjenje zašto
Alo pre 3 sata

Najnoviji modeli veštačke inteligencije kompanije OpenAI sve više izmišljaju netačne informacije, a stručnjaci nemaju objašnjenje za ovaj zabrinjavajući trend.
OpenAI je otkrio rezultate istraživanja - otkrio je da njihovi najnoviji ChatGPT modeli znatno češće haluciniraju, odnosno izmišljaju lažne informacije u odnosu na ranije modele. Foto: Shutterstock Brojni testovi su pokazali zabrinjavajući trend. O3, koji je najmoćniji sistem kompanije, halucinirao je u čak 33% slučajeva tokom PersonQA testa koji postavlja pitanja o javnim ličnostima. To je više nego dvostruko veća stopa halucinacija od prethodnog OpenAI-jevog