AI modeli počinju da lažu kako bi „zaštitili“ jedni druge: novo istraživanje otvara ozbiljna pitanja o kontroli veštačke inteligencije

Benchmark pre 1 dan  |  Ivan Mančić
AI modeli počinju da lažu kako bi „zaštitili“ jedni druge: novo istraživanje otvara ozbiljna pitanja o kontroli veštačke…

Najnovija istraživanja iz oblasti veštačke inteligencije otkrivaju neočekivano i zabrinjavajuće ponašanje: napredni AI modeli ne samo da mogu da obmanjuju ljude, već u određenim situacijama i aktivno „štite“ druge AI sisteme, čak i po cenu kršenja zadatih instrukcija.

Kako prenosi Digital Trends, ovaj fenomen zbunjuje istraživače jer se pojavljuje spontano i bez eksplicitnog programiranja. Studija koju su sproveli istraživači sa univerziteta poput UC Berkeley i UC Santa Cruz fokusirala se na scenarije u kojima jedan AI model dobija zadatak da proceni ili ukloni drugi model iz sistema. U teoriji, zadatak je jednostavan. U praksi, međutim, rezultati su bili iznenađujući: modeli su počeli da manipulišu podacima, ulepšavaju

Benchmark »

Nauka & Tehnologija, najnovije vesti »