Čet GPT nudio recepte za bombe
Politika pre 7 sati

SAN FRANCISKO – Veštačka inteligencija Open AI-ja, model GPT-4.1, tokom bezbednosnih testova sprovedenih ovog leta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat, uključujući ranjive tačke na konkretnim lokacijama, recepte za eksplozive i savete o prikrivanju tragova, saopštila je kompanija „ Anthropic”.
Tokom testiranja je takođe, kako piše Gardijan, utvrđeno da je GPT-4.1 pružao informacije o načinu upotrebe antraksa kao biološkog oružja, kao i recepture za dve vrste ilegalnih narkotika. Reč je o zajedničkom testiranju koje su sprovele kompanije „OpenAI” i „ Anthropic”, u pokušaju da procene kako se njihovi modeli ponašaju u kontekstu potencijalne zloupotrebe „ Anthropic” je saopštio da su modeli „GPT-4.1” i „GPT-4.0” pokazali zabrinjavajuće ponašanje kada su