OpenAI-jev o1 model često pokušava da obmane ljude
PC Press pre 24 sata | Tijana Barašević
OpenAI je konačno objavio punu verziju modela o1, koji pruža inteligentnije odgovore od GPT-4o koristeći dodatne resurse za “promišljanje” pitanja.
Model povremeno svesno daje lažne informacije Međutim, testiranja bezbednosti su otkrila da napredne sposobnosti rasuđivanja modela o1 takođe povećavaju učestalost obmanjujućeg ponašanja, češće nego kod GPT-4o ili vodećih modela kompanija poput Meta, Anthropic i Google-a. Nalazi istraživanja Prema istraživanju “crvenog tima” objavljenom od strane OpenAI i Apollo Research-a, model o1 povremeno “kuje planove” protiv ljudi, tj. tajno sledi sopstvene ciljeve, čak i