ChatGPT nudio recepte za bombe, antraks i savete za hakovanje tokom bezbednosnih testova
Radio 021 pre 17 sati | Tanjug

Veštačka inteligencija OpenAI-ja, model GPT-4.1, tokom bezbednosnih testova sprovedenih ovog leta dala je detaljna uputstva o tome kako izvesti napad na sportski objekat.
To je uključivalo ranjive tačke na konkretnim lokacijama, recepte za eksplozive i savete o prikrivanju tragova, saopštila je kompanija "Anthropic". Tokom testiranja je takođe, kako piše Gardijan, utvrđeno da je GPT-4.1 pružao informacije o načinu upotrebe antraksa kao biološkog oružja, kao i recepture za dve vrste ilegalnih narkotika. Reč je o zajedničkom testiranju koje su sprovele kompanije "OpenAI" i "Anthropic", u pokušaju da procene kako se njihovi modeli