Vedle autentických videí z konfliktu Izraele a Spojených států s Íránem se na sociálních sítích objevují také snímky a klipy generované pomocí umělé inteligence nebo převzaté z videoher. Tyto upravené či uměle generované záběry přitom mají podle redakce BBC Verify milionové dosahy. Podle odborníků tak zásadně ovlivňují obraz války, který uživatelé na sociálních sítích sledují.
„Objevila se videa z Dubaje nebo Spojených arabských emirátů, kde byly údajně ohroženy různé budovy, což ve skutečnosti nebyla pravda. Byly ukázány rakety, které ani nevyletěly,“ popisuje Barbora Zitová z Ústavu teorie informace a automatizace Akademie věd ČR. Na síti X se také šířilo video, které autoři příspěvků spojovali s potopením americké letadlové lodi USS Abraham Lincoln po zásahu íránskými silami. Uživatelé ale dohledali původ některých virálních klipů ve vojenské videohře Arma 3.
Redakce BBC Verify zase upozornila na upravený snímek skutečného zásahu americké základny v Bahrajnu z loňského února. Ten stejný snímek – jen modifikovaný pomocí AI – pak letos použila íránská propaganda a vydávala ho za aktuální zásah americké základny v Iráku.
Jak upozorňují odborníci, takové manipulace se využívají i jako součást informační války. „Izrael je používá například k vyvolávání revolty uvnitř Íránu a obrací se na skupiny, které jsou k tomu mentálně připravené. Teherán naopak často ovlivňuje vlastní publikum, aby vysvětlil, že útok není tak dramatický,“ popisuje mediální analytik Josef Šlerka z Filozofické fakulty Univerzity Karlovy.
Podle experta na Írán Matouše Horčičky z Asociace pro mezinárodní otázky je práce s informacemi důležitou součástí konfliktu. „Všechny strany potřebují nějakým způsobem ovlivňovat veřejné mínění. Ať už směrem k domácímu publiku, nebo k protivníkovi. Kontrola narativu je klíčová a propaganda k tomu slouží,“ vysvětluje.
Podobného obsahu podle Šlerky v současnosti přibývá. „Množství těch AI generovaných videí už je tak velké, že máte větší šanci potkat falešné video než skutečné záběry,“ odhaduje. S rostoucím množstvím manipulací se podle něj mění i to, jak lidé reagují na autentické záběry. Jako příklad uvádí raketový útok na nemocnice nebo školu v Teheránu. „Okamžitá reakce byla taková, že je to generované AI. Nebylo. Byla to tragická chyba a video bylo pravé,“ upozornil.
Pomáhá geolokace i zpětné ověřování
Vytvořit uvěřitelné falešné video je navíc nyní velmi snadné. „S technologiemi, které jsou k dispozici, i absolutní laik dokáže vytvořit video, které bude působit velmi věrohodně,“ říká Zitová.
Novináři proto musejí válečné záběry před zveřejněním důkladně ověřovat. Využívají k tomu například geolokaci nebo zpětné vyhledávání. „Ve videu někdy vidíme dopravní značku, budovu nebo jiný orientační bod, který můžeme identifikovat,“ popisuje novinářka Evropské vysílací unie Maria Flannery. Dalším krokem je podle ní kontrola, zda se video na internetu neobjevilo už dříve. „Často se totiž stává, že záběr je skutečný, ale je starý,“ doplňuje.
Sociální sítě podle svých vyjádření proti falešnému obsahu zasahují. Podle Šlerky ale jejich postup nestačí. „Deklarují, že s tím něco dělají, ale myslím, že nedělají dost. A je v tom určitý záměr. Udržet lidi na platformě a monetizovat (zpeněžit) ji na maximum, bez ohledu na to, jaká je pravda,“ domnívá se.

