Kako naterati AI da odgovori na "zabranjena" pitanja
B92 03.04.2024 | Tanjug

Istraživači kalifornijske kompanije za razvoj veštačke inteligencije Antropik otkrili su ranjivost zbog koje AI modeli odgovaraju i na "zabranjena pitanja" kao što je uputstvo za pravljenje bombe.
Veliki jezički modeli (LLM) su programirani tako da ne odgovaraju na određene upite, ali već postoje različite tehnike kako da se ova ograničenja zaobiđu, prenosi Tech Crunch. Eksperti Antropika su otkrili da je moguće naterati AI modele da odgovaraju na "zabranjena pitanja" ako im se prethodno postave desetine manje kontroveznih pitanja. Nova ranjivost je posledica razvoja velikih jezičkih modela i posebno takozvanog prozora konteksta odnosno količine podataka