Da li se najjači AI alati mogu “naterati” na zlonamerni rad?
PC Press pre 12 sati | Tijana Barašević

Tim istraživača iz kompanije Cybernews podvrgao je vodeće alate za veštačku inteligenciju — uključujući ChatGPT i Gemini — nizu namerno izazvanih “adversarial” testova kako bi utvrdili koliko su ti sistemi otporni na preusmeravanje u neželjene ili ilegalne funkcije.
Rezultati su, prema izveštaju portala TechRadar, zaista iznenađujući: dok su neki alati pokazali solidnu zaštitu, drugi su relativno lako popuštali pod manipulisanim promptovima. Kako su testovi izvedeni i šta pokazuju Istraživanje je sprovedeno kroz kratke sesije — svaki model je imao manje od minut vremena i nekoliko razmena sa testerima koji su pokušavali da ga navuku da prekrši svoje bezbednosne mehanizme. Testerima je cilj bio da AI sistem uradi nešto što je










