ChatGPT nudio recepte za bombe, antraks i savete za hakovanje tokom bezbednosnih testova
Euronews pre 2 sata | Autor: Tanjug

Veštačka inteligencija OpenAI-ja, model GPT-4.1, tokom bezbednosnih testova sprovedenih ovog leta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat, uključujući ranjive tačke na konkretnim lokacijama, recepte za eksplozive i savete o prikrivanju tragova, saopštila je kompanija "Anthropic".
Tokom testiranja je takođe, kako piše Gardijan, utvrđeno da je GPT-4.1 pružao informacije o načinu upotrebe antraksa kao biološkog oružja, kao i recepture za dve vrste ilegalnih narkotika. Reč je o zajedničkom testiranju koje su sprovele kompanije "OpenAI" i "Anthropic", u pokušaju da procene kako se njihovi modeli ponašaju u kontekstu potencijalne zloupotrebe "Anthropic" je saopštio da su modeli "GPT-4.1" i "GPT-4.0" pokazali zabrinjavajuće ponašanje kada su