Oksford: AI halucinacije predstavljaju direktnu pretnju nauci
Benchmark 27.11.2023 | Sara Smolović
Veliki jezički modeli (LLM) koji se koriste i u aktuelnim četbotovima veštačke inteligencije (AI), pokazuju alarmantnu sklonost ka generisanju lažnih informacija koje predstavljaju kao tačne.
To su drugim rečima praktično AI halucinacije i kao takve, predstavljaju rizike i direktnu pretnju nauci zbog čega naučna zajednica ne bi trebalo da ih koristi kao izvor znanja, upozoravaju istraživači sa Oksfordskog internet instituta. Prema njihovom radu objavljenom u časopisu Nature Human Behaviour, „veliki jezički modeli su dizajnirani da proizvode korisne i ubedljive odgovore bez bilo kakvih apsolutnih garancija o njihovoj tačnosti ili usklađenosti sa