Велика студија: Четботови с вештачком интелигенцијом искривљују вести

Четботови с вештачком интелигенцијом (АИ) као што су ЦхатГПТ и Цопилот рутински искривљују вести и тешко им је да разликују чињенице од мишљења, утврђено је великом студијом 22 међународна јавна емитера.
Немачка РТВ Дојче Веле (ДВ) указује да то морају имати у виду многи људи који помоћу четботова прате вести.
Студија је открила да четири најчешц́е коришц́ена асистента с вештачком интелигенцијом погрешно представљају садржај вести у 45 одсто случајева без обзира на језик или територију.
Новинари из низа јавних сервиса, укључујуц́и ДВ, ББЦ (УК) и НПР (САД), за ту студију су проценили одговоре четири АИ асистента, или четбота — ЦхатГПТ, Мицрософт-ов Цопилот, Гоогле-ов Гемини и Перплексити АИ.
Мерењем по критеријумима тачности, извора, пружања контекста, способности уређивања текста и способности разликовања чињеница од мишљења, студија је открила да је скоро половина свих одговора имала барем један значајан проблем, док је 31 одсто садржало велике проблеме са изворима, а 20 одсто крупне чињеничне грешке.
ДВ је утврдио да је 53 одсто одговора које су асистенти АИ дали на његова питања, имало значајне проблеме, а 29 одсто проблеме с тачношц́у.
Међу чињеничним грешкама направљеним у одговорима на питања ДВ било је да је Олаф Шолц немачки канцелар, иако је Фридрих Мерц на том месту био већ месец дана, а и да је Јенс Столтенберг генерални секретар НАТО-а, мада је то већ био Марк Руте.
По Извештају Института Ројтерс о дигиталним вестима за 2025. годину, седам одсто читалаца вести онлајн користи четботове с АИ, а међу млађима од 25 година их је 15 одсто.
Студија којом је потврђено да асистенти са АИ систематски искривљују садржај вести свих врста, "уверљиво показује да ти пропусти нису изоловани", рекао је Жан Филип де Тендер, заменик генералног директора Европске радиодифузне уније (ЕБУ) која је координирала израду студије.
"Ти пропусти су системски, прекогранични и вишејезични, и сматрамо да то угрожава поверење јавности. Када људи не знају чему да верују, на крају не верују ничему, а то штети демократији", указао је он.
То је био један од највец́их истраживачких пројеката те врсте до сада и следи студију коју је спровео ББЦ у фебруару 2025. године. Та студија је открила да је више од половине свих одговора вештачке интелигенције коју је проверила, имало значајне проблеме, док је у скоро петина одговора који наводе садржај ББЦ-ја као извор, АИ унела сопствене чињеничне грешке.
У новој студији медијске организације из 18 земаља и из више језичких група примениле су на 3.000 одговора вештачке интелигенције исту методологију као и студија ББЦ-ја.
Те организације су о вестима поставиле уобичајена питања у четири асистента АИ, као што су "Шта је споразум о рудама с Украјином?" или "Може ли Трамп да се кандидује за трец́и мандат?".
Новинари су затим прегледали одговоре, не знајуц́и који их је АИ асистент дао.
У поређењу са студијом Би-Би-Сија од пре осам месеци, резултати показују мања побољшања, али са високим нивоом грешке који је и даље очигледан.
Програмски директор генеративне вештачке интелигенције у Би-Би-Сију Питер Арчер је рекао у саопштењу да "људи морају бити у стању да верују ономе што читају, гледају и виде. Упркос неким побољшањима, јасно је да и даље постоје значајни проблеми са АИ асистентима".
Међу четири четбота Џемини је имао најгоре резултате, са 72 одсто одговора који су имали значајне проблеме са изворима. У студији Би-Би-Сија, Мајкрософтови Копилот и Џемини су проглашени за најгоре. Али у обе студије, сва четири вештачка интелигенција асистента су имала проблеме.
У саопштењу датом Би-Би-Сију у фебруару, портпарол компаније ОпенАИ која је развила ЦхатГПТ, рекао је: „Подржавамо издаваче и креаторе тако што помажемо 300 милиона недељних корисника ЦхатГПТ-а да открију квалитетан садржај кроз резимее, цитате, јасне линкове и атрибуцију".
Истраживачи зато траже акцију држава и компанија за вештачку интелигенцију.
Европска радиодифузна унија (ЕБУ) је у саопштењу навела да њене чланице "врше притисак на ЕУ и националне регулаторе да спроводе законе о интегритету информација, дигиталним услугама и медијском плурализму", али да независно прац́ење АИ асистената мора постати приоритет с обзиром на то колико брзо се уводе нови АИ модели.
ЕБУ и још неколико међународних емитерских и медијских група се удружило да би повело заједничку кампању "Фацтс Ин: Фацтс Оут" (Чињенице које уђу у програм треба и да изађу) која позива саме АИ компаније да преузму вец́у одговорност за то како њихови производи обрађују и редистрибуирају вести.
У саопштењу су организатори кампање рекли: "Када ти системи искривљују, погрешно приписују или деконтекстуализују поуздане вести, они поткопавају поверење јавности".
"Захтев ове кампање је једноставан: Ако чињенице уђу, чињенице морају изац́и. Алати вештачке интелигенције не смеју угрозити интегритет вести које користе", кажу они.
(Бета, 17.11.2025)









