Otkrivena opasna ranjivost ChatGPT-a: "Možda čak neće upozoriti korisnika"
Telegraf 26.10.2023 | Telegraf.rs
Ovo je prva studija koja pokazuje da veliki jezički modeli mogu biti eksploatisani za napade na komercijalne online aplikacije
Bezbednosne slabosti velikih jezičkih modela kao što je GPT mogle bi da budu nova tačka napada za sajber kriminalce, pokazuje najnovija studija. Istraživači su uspeli da manipulišu ChatGPT-jem i još pet komercijalnih AI alata kako bi generisali maliciozni kod koji može izazvati curenje osetljivih informacija iz baza podataka, brisanje ključnih podataka ili poremećaj cloud servisa. Ksen Sijetan Peng, koji je bio koautor studije na Univerzitetu u Šefildu u Velikoj