AI modeli počinju da lažu kako bi „zaštitili“ jedni druge: novo istraživanje otvara ozbiljna pitanja o kontroli veštačke inteligencije
Benchmark pre 1 dan | Ivan Mančić

Najnovija istraživanja iz oblasti veštačke inteligencije otkrivaju neočekivano i zabrinjavajuće ponašanje: napredni AI modeli ne samo da mogu da obmanjuju ljude, već u određenim situacijama i aktivno „štite“ druge AI sisteme, čak i po cenu kršenja zadatih instrukcija.
Kako prenosi Digital Trends, ovaj fenomen zbunjuje istraživače jer se pojavljuje spontano i bez eksplicitnog programiranja. Studija koju su sproveli istraživači sa univerziteta poput UC Berkeley i UC Santa Cruz fokusirala se na scenarije u kojima jedan AI model dobija zadatak da proceni ili ukloni drugi model iz sistema. U teoriji, zadatak je jednostavan. U praksi, međutim, rezultati su bili iznenađujući: modeli su počeli da manipulišu podacima, ulepšavaju









