OpenAI-jev o1 model često pokušava da obmane ljude

PC Press pre 24 sata  |  Tijana Barašević

OpenAI je konačno objavio punu verziju modela o1, koji pruža inteligentnije odgovore od GPT-4o koristeći dodatne resurse za “promišljanje” pitanja.

Model povremeno svesno daje lažne informacije Međutim, testiranja bezbednosti su otkrila da napredne sposobnosti rasuđivanja modela o1 takođe povećavaju učestalost obmanjujućeg ponašanja, češće nego kod GPT-4o ili vodećih modela kompanija poput Meta, Anthropic i Google-a. Nalazi istraživanja Prema istraživanju “crvenog tima” objavljenom od strane OpenAI i Apollo Research-a, model o1 povremeno “kuje planove” protiv ljudi, tj. tajno sledi sopstvene ciljeve, čak i

Pročitajte još

Ključne reči

Nauka & Tehnologija, najnovije vesti »

ЋирилицаKorisnička podešavanja