
Nástroje na vytváření falešných videí, fotografií i textů jsou stále rozšířenější, snadněji dostupné a hlavně – jejich výstupy jsou stále realističtější. Odhalit, že jde o dílo umělé inteligence, je tedy pořád složitější. Cesty ale existují: vědecká redakce ČT24 otestovala některé nástroje, které to dokáží.
Redaktor České televize Jakub Pacner pravidelně moderuje ze studia, ale také vstupuje z terénu. Je tak věrohodnou a poměrně známou osobností tuzemského veřejnoprávního zpravodajství. Když se objevilo na portálu YouTube video, kde propagoval nelegální finanční služby společně s Andrejem Babišem (ANO), působilo to na první pohled velmi nedůvěryhodně. Pacner i Babiš ale současně vypadali velmi reálně, jejich hlasy i pohyby působily přirozeně. Video ale bylo vytvořené umělou inteligencí a bylo tak věrohodné díky tomu, jak často bývají redaktor ČT i opoziční lídr na obrazovce:
Podobných klipů jsou tisíce. Zejména v posledních měsících, kdy řada velkých společností zveřejnila aplikace umožňující zdarma převedení textu na video, jich ale přibývá geometrickou řadou. U části je velmi snadné poznat manipulaci i během pár sekund, u jiných je to ale prakticky nemožné. Falšování reality může být neškodné a zábavné – například, když na záběrech létá okřídlený pes – ale může se stát i velmi snadno nebezpečným. Třeba když autoři klipu zneužijí respektovanou osobnost k propagaci nějakého podvodného produktu.
Jak podvrhy poznat? To už je složitější. Existují komerční analytické nástroje, které umí tyto „fake news“ odhalit, ale zpravidla jsou poměrně drahé a negarantují, že jejich výsledek bude zaručený. Seznam nástrojů, které jsou zdarma, poskytuje ale také bruselská organizace EU Disinfo Lab, která se věnuje boji proti dezinformacím dlouhodobě. Řada z nástrojů je nicméně zastaralá, mnoho z nich se stalo v mezičase placenými. Řada z nich se ale stále dá využít na ověření pravosti internetového obsahu. Česká televize otestovala jejich účinnost na textu, fotografiích i videu.
Běžné texty se poznají poměrně snadno
Vytvořit jakýkoliv text je dnes velmi snadné pro většinu velkých jazykových modelů – tedy nástrojů, kterým se laicky říká umělé inteligence alias AI. Nástroje jako ChatGPT, Grok, Claude a další umí pracovat s obecným zadáním, ale také s velmi přesně formulovanými prosbami o texty, jež připomínají výtvory někoho konkrétního.
Vědecká redakce ČT otestovala dvacet textů vytvořených různými modely AI, polovina byla v češtině, polovina v angličtině. Využila k tomu nástroj GPTZero. Ukázalo se, že zatímco u anglicky psaných textů je nástroj extrémně spolehlivý a dokáže dílo robota odhalit s pravděpodobností víc než 96 procent, u českých článků je mnohem méně úspěšný.
Výsledek se také značně liší podle zadání: pokud má AI napodobit nějaký konkrétní styl, pak může být pro internetové nástroje velmi těžké to odhalit. Záleží ale zřejmě na velikosti vzorku, který má AI k dispozici: například styl psaní Českého rozhlasu, jehož web je otevřený a dostupný každému, umí stroje napodobit tak dobře, že to nástroj neodhalí. Ale naopak styl České tiskové kanceláře, kde je většina obsahu zamčená a dostanou se k němu jen platící klienti (například i Česká televize), okopíruje AI natolik nepřesvědčivě, že to algoritmus odhalí snadno.
A jak to funguje opačně? Nemůže analytický nástroj považovat za „falešné“ texty vyrobené lidmi? Může, zejména pokud jde o angličtinu. Redakce předložila stejnému programu dvacet článků napsaných prokazatelně lidmi – a opět nechala program hádat, zda nešlo o práci AI. U češtiny si se zadáním poradil skvěle, ale zřejmě i proto, že ji nezná tak dobře a neodvažuje se tolik hádat. Poslední možností je, že texty na webu ČT, které byly k analýze využité, jsou natolik kvalitní, že program opravdu nenašel žádné známky AI.
U anglicky psaných textů ze stránek BBC, která deklaruje, že umělou inteligenci pro psaní článků nevyužívá, už u některých textů ale program váhal. Nejvíce u těch, které se nějak týkají vědy. Proč? Články na toto téma totiž mnohdy využívají citace ze studií nebo tiskových zpráv různých institucí, jež mohly AI využít – a novináři pak tato vyjádření převzali.
Člověk rozezná falešné video lépe než robot
U rozeznávání takzvaných deepfake videí, které pomocí strojové inteligence předstírají, že jsou reálná, použila redakce stejný přístup. Zdarma dostupný nástroj Deepware otestoval dvacet videí – deset reálných z tvorby ČT a desítku falešných.
Tento program využívá na analýzu čtyři modely, které různým způsobem hodnotí přesvědčivost deepfake videa. A výsledky všech čtyř byly v tomto testu velmi slabé. Nedokázaly rozpoznat nepravdivost jediného z předložených snímků. Zdá se, že už úroveň „podezření“ kolem dvaceti procent ale naznačuje, že klip není reálný. Modely se přitom řídí podle změn lidské tváře na obrázcích – jenže právě tato technologie udělala za poslední rok největší pokrok, takže nástroj vypadá jako neúčinný.
Přesto tato aplikace není neužitečná. Nejčastější videopodvody, které na tento web uživatelé nahrají, totiž zkoumají i lidští analytici, kteří následně umísťují svá hodnocení. A ti jsou naopak úspěšní stoprocentně, a to i u těch nejvěrohodnějších podvodů – v přiloženém seznamu jde například o klip s hercem Morganem Freemanem.
Proč jsou vlastně lidé při analýze obrazové informace pořád o tolik lepší než stroje? Více se dočtete níže – je to i tím, že přístupy k videu a fotografii jsou v principu velmi podobné a řídí se srovnatelnými pravidly.
Odhalit falešné fotografie už je téměř nemožné
Falešné obrázky vytvořené velkými jazykovými modely sice existují jen několik let, ale za tu dobu došlo k obrovskému pokroku. Také v tomto případě proběhla analýza fotografií vyfocených lidmi a těch, které vytvořila umělá inteligence, v tomto případě volně dostupný nástroj OpenArt. Na analýzu byl využitý opět nástroj z webu EU Disinfo Lab – Iluminarty.
A jeho úspěšnost není vysoká. Řada obrázků vytvořených AI je pro něj podobně „podezřelá“ jako lidmi pořízené fotografie, byť základní orientaci uživateli, který si chce vytvořit nějaký odhad, dát může. Obecně se i automatický analytický nástroj soustředí hlavně na několik oblastí. Prozkoumává například digitální stopu snímku, takzvaná metadata, kde se ale dá snadno ošálit.
Obrázky generované AI také často obsahují nepřirozené vzorce, například deformace v oblasti očí, zubů, prstů nebo šperků. Nástroje také analyzují symetrii obličeje, odlesky v očích nebo nepravidelnosti v barvách a texturách. Jenže když jsou tyto vzorce v pořádku, tak už takto natrénované programy považují snímek za přijatelný.
U přiložené sady snímků se to dá hezky ukázat u dvou záběrů papeže. Oba program považuje za podezřelé, ale rozdíl mezi jeho odhady není velký – fotografii hlavy katolické církve v automobilu považuje za falešnou s pravděpodobností 46,8 procenta, ale papeže na žirafě ze 62,9 procenta.
Nasvětlení, detaily tváře i ostatní podrobnosti totiž dokázal použitý pokročilý „AI malíř“ vyrobit velmi zdařile. Naopak reálný snímek zachycuje papeže ve velmi nepřirozené pozici s lesknoucím se obličejem. Algoritmus už není schopný vzít v úvahu nesmyslnost celé situace zachycené na falešném snímku, člověk ale snadno odhalí, že vysocí církevní hodnostáři na žirafách po Rudém náměstí v Moskvě opravdu nejezdí.
Pro každý typ ověřování, textu, videa i fotografií, existuje celá řada nástrojů, většina je komerční nebo částečně komerční, kdy má uživatel k dispozici jen omezené množství kreditů, které může utratit, než překročí hranici, za níž je už každý další krok placený.