Oksford: AI halucinacije predstavljaju direktnu pretnju nauci

Benchmark 27.11.2023  |  Sara Smolović
Oksford: AI halucinacije predstavljaju direktnu pretnju nauci

Veliki jezički modeli (LLM) koji se koriste i u aktuelnim četbotovima veštačke inteligencije (AI), pokazuju alarmantnu sklonost ka generisanju lažnih informacija koje predstavljaju kao tačne.

To su drugim rečima praktično AI halucinacije i kao takve, predstavljaju rizike i direktnu pretnju nauci zbog čega naučna zajednica ne bi trebalo da ih koristi kao izvor znanja, upozoravaju istraživači sa Oksfordskog internet instituta. Prema njihovom radu objavljenom u časopisu Nature Human Behaviour, „veliki jezički modeli su dizajnirani da proizvode korisne i ubedljive odgovore bez bilo kakvih apsolutnih garancija o njihovoj tačnosti ili usklađenosti sa

Internet »

Ključne reči

Nauka & Tehnologija, najnovije vesti »