ДЕМОСТАТ: Вештачка интелигенција улази и у политичку арену
Политика је једна од најновијих индустрија коју је уздрмала вештачка интелигенција. Употреба вештачки генерисаног садржаја у политичким кампањама могла би да изазове проблеме и кандидатима и гласачима и да у у великој мери отежа борбу против лажних вести и дезинформација, оцењено је у новом тексту Демостата.
У априлу 2023, након много спекулација, актуелни председник САД Џозеф Бајден званично је покренуо своју кампању за реизбор, путем видео најаве.
Истог дана, Републиканска странка одговорила је својим видео спотом, у којем је напала председника Бајдена.
У споту предвиђају наредне четири године у САД под вођством председника Бајдена, са вец́им криминалом, отвореним границама, ратом са Кином и економским колапсом.
Реклама би могла бити прекретница за политичке кампање, јер се први пут користе слике направљене искључиво помоц́у технологије вештачке интелигенције.
Видео спот, који носи наслов „Победите Бајдена”, доступан је на Твитеру и Јутјубу, а приказује како би изгледало да председник Бајден буде поново изабран 2024.
„Шта ако је најслабији председник којег смо икада имали поново изабран“, пише на екрану док се приказују слике направљене помоц́у АИ.
АИ генератори слика попут Стабле Диффусион, ДАЛЛ-Е анд МидЈоурнеи постали су изузетно популарни у последњих неколико месеци.
Корисници могу једноставно да опишу шта би желели да виде користец́и текст, а затим АИ генерише слику.
На први поглед, многи људи не примећују да је снимак којим се критикује Бајден направљен помоц́у вештачке интелигенције, иако у горњем левом углу постоји дисклејмер написан ситним словима.
На реклами се такође виде сва обележја вештачки генерисаних фотографија.
За почетак, лажни Бајден има чудне руке, као што можете видети на слици испод.
Лажни Бајден и лажна потпредседница САД Камала Харис имају и превише видљивих зуба у вилици, што је још један сигуран показатељ да су у питању вештачки генерисане слике.
На први поглед ова реклама изгледа као необичан политички напад.
Међутим, иако је Републиканска партија била транспарентна у вези са употребом вештачке интелигенције, бирачко тело је ипак увучено у нову еру политичког оглашавања, у којој нема јасних граница докле се сме ићи, али последице коришћења дезинформација и лажних вести могу бити велике.
Друштвене мреже, све ниже поверење у традиционалне медије и све веродостојнији садржај који се генерише уз помоћ дипфејк снимака може створити савршену олују када је реч о ширењу дезинформација и лажних вести.
У јануару ове године на Твитеру је кружио дипфејк видео на којем се чинило да председник Бајден најављује да је послати Американце да се боре у Украјини.
На снимку је у почетку био приказан натпис који га описује као машту вештачке интелигенције, али се након што је одређено време циркулисао мрежама дисклејмер изгубио.
Показало се заправо колико је лако да и садржај који је у старту био дефинисан као продукт АИ након више дељења постане дезинформација.
Дипфејк снимци могу довести до лоших последица ако се користе у оквиру геополичке борбе или као оруђе у рукама терористичких организација, али исто тако могу бити снажан алат и кад је реч о политичком оглашавању.
У трци да се произведу најпровокативнији видео снимци, сада када имамо АИ технологију, вероватно неће бити граница.
Ипак, случај са Бајденом није први такав случај забележен у америчким кампањама.
Наиме, истраживачи су 2015. године открили да је Мекејнова кампања користила фотографије тадашњег кандидата на председничким изборима, Барака Обаме, у видео снимцима који су били изманипулисани тако да Обама има тамнији тен.
Нове технологије ц́е вероватно бити најефикасније коришц́ене против рањивих група, као што су жене, представници мањина или чланови ЛГБТ заједнице који се кандидују на функције.
У студији о изборном циклусу за Конгрес 2020. године, извештај Центра за демократију и технологију показује је да су жене кандидата Афроамериканаца дупло више мете кампања лажних и дезинформација на мрежи.
У Индији, дипфејк технологија се користи као оружје против политичарки и новинарки, а многе су пријавиле да су њихове фотографије и видео записи постављени на порнографске сајтове и да круже интернетом.
Слике генерисане вештачком интелигенцијом и дипфејк снимци лако би се могли користити и за сексуализацију политичарки, као и креатора јавног мњења и других лидера, што може поткопати кредибилитет жена у кампањама.
Такође, све реалистичнији лажни видео снимци, аудио снимци и фотографије могли би омогуц́ити политичарима да порекну одговорност за било који проблематичан звучни запис или видео, тврдец́и да је гледаоцима све време требало да буде очигледно да су такви материјали генерисани вештачком интелигенцијом или су лажни.
Платформе друштвених медија почеле су да уводе нове политике за решавање проблематике кад је у питању садржај генерисан вештачком интелигенцијом, али је изазовно интегрисати та нова правила са већ постојећим кад је реч о политичком садржају.
Мета је забранила дипфејк снимке на својим платформама, али остаје непоколебљива у одлуци да се чињенице које износе политичари не проверавају.
ТикТок је забранио дипфејк снимке за приватне личности, а када је реч о јавним личностима забрањени су само ако рекламирају неке производе или крше друге услове те мреже, као што је промовисање говора мржње.
Дубоко лажирање снимака јавних личности у сврху „уметничког или образовног садржаја“ је ипак дозвољено.
Бајденова администрација је у мају примила извршне директоре технолошких компанија у Белој куц́и и објавила акциони план за „промовисање одговорних АИ иновација“.
У пододбору Сената за правосуђе одржано је саслушање о потенцијалном надзору технологије вештачке интелигенције.
(Бета, 27.07.2023)