Na obrazovce telefonu se objevuje tvář blízkého člověka. Volající říká, že se stala nehoda, je v tíživé situaci a okamžitě potřebuje peníze. Za falešným videem ale stojí podvodníci. „Díváte se na někoho, kdo vypadá jako vy, ale uvnitř cítíte, že to vy nejste. Je to dost nepříjemné,“ popisuje Matyáš Boháček falešné video, ve kterém se objevil. Studiu podvrhů se věnuje a sám je pro výzkum vytváří.
„Dnes je to velmi invazivní. Stačí obrázek, dvacet vteřin videa, kde mluvíte, a deepfake je na světě,“ říká Boháček, který se výzkumu falešných videí věnuje na Stanfordově univerzitě v Kalifornii. Kromě odhalování falešných videí je pro vědecké účely pomáhá i vytvářet. Svůj výzkum představil v listopadu na konferenci Future Port Youth v Praze.
„I pokud má člověk soukromý účet na sociálních sítích, informace se dostanou ven. Do budoucna to bude ještě riskantnější, protože podvodníci se nejen naučí napodobovat váš hlas a tvář, ale třeba i to, jak píšete,“ vysvětluje. Nemusí přitom jít o dlouhé texty, stačí například jen popisky u fotek na Instagramu.
Informace o člověku, kterého chtějí podvodníci napodobit, sbírají ze sociálních sítí. Boháček zmiňuje například falešné esemesky, které mu chodí a jsou podepsané jmény jeho přátel. „Mám americké i české číslo a vidím, že to americké je daleko více zavalené těmito podvody,“ říká. Informace navíc nemusí získávat ručně, vše je automatizované.
Poznat falešné video je přitom stále těžší. „Před rokem se ještě šlo podívat na pohyb úst, kde byly jasně vidět nedostatky a zvláštní pohyby. U obrázků to pak byly například náušnice, které neseděly, nebo to, že člověk měl šest nebo čtyři prsty. Ale to dnes už moc nevidíme,“ popisuje.
Dříve se také lidé na falešných videích nedovedli smát či třeba zívat. To už ale neplatí. „Pokud se člověk na deepfake dívá na malé obrazovce telefonu, detaily často nejsou vidět. Rozpoznat deepfake je čím dál těžší a za dva měsíce to už nebude vůbec možné,“ dodává.
Jako příklad zmiňuje nedávný pokus své kolegyně, která dobrovolníkům přehrávala skutečný i počítačem vytvořený hlas jejich blízkých nebo politiků. „Úspěšnost rozpoznávání byla jako hod mincí. Nebyli to schopni rozeznat. Když byli trochu natrénovaní, tak se to zlepšilo na 52 procent, ale také mohlo jít o šum,“ říká výzkumník.
„Díváte se na někoho, kdo vypadá jako vy, ale uvnitř cítíte, že to vy nejste. Je to dost nepříjemné,“ vzpomíná Boháček, jak se cítil, když sledoval podvrh vytvořený pro výzkumné účely, na kterém se sám objevil.
„Na naše mozky je to trochu moc“
Jedním ze způsobů, jak falešné video rozeznat, je například sledování specifických gest či způsobu, jak člověk mluví. V minulosti tak Boháček pomáhal pomocí umělé inteligence odhalit falešná videa s ukrajinským prezidentem Zelenským.
„Na začátku invaze Ruské federace na území Ukrajiny byl šířen deepfake prezidenta Zelenského vyzývající ozbrojené síly Ukrajiny ke složení zbraní. Nicméně kvalita deepfake videa byla velice nízká, a tento pokus tak nebyl nijak úspěšný. To však nasvědčuje spíše nepřipravenosti Ruské federace na konflikt než nízké kvalitě AI technologií.“
Vojenské zpravodajství ve výroční zprávě za rok 2023
„Model se učí, jak člověk gestikuluje, jak pohybuje svaly ve tváři a jak to všechno dohromady vytváří finální projev,“ říká. Deepfake podle výzkumníka často přetváří jen část obličeje, druhá část zůstává původní. To vytváří rozpor, který lze odhalit. „Bohužel to ale nemůžeme udělat pro každého jednotlivce,“ upozorňuje Boháček.
Podobný postup funguje jen u veřejně známých osobností, u kterých je dostatek materiálu. Pokud by navíc existoval stoprocentně spolehlivý systém, jak podvrhy odhalit, podvodníci by ho mohli zneužít k vylepšení svých deepfaků, aby detektorům unikaly.
„Myslím, že jako jednotlivci na to nejsme připraveni. Na naše mozky a kognitivní schopnosti je množství obsahu, který se na nás valí, trochu moc. A k tomu se přidá další vrstva toho, že něco je reálné a něco ne, něco je upravené a něco manipulativní. Je to velmi náročné,“ říká Boháček.
Klíčová je podle něj mediální gramotnost. Ale ani taková, která bude počítat s umělou inteligencí, není celé řešení. „Platformy dnes uvažují tak, že jednotlivec má moc se rozhodovat. To je ale hodně svazující. Když se platforma snaží doporučovat konkrétní obsahy, co nás na ní udržují, jsou samozřejmě falešná videa a obrázky zajímavější a provokativnější,“ vysvětluje, jak k šíření podvrhů přispívají sociální sítě.
Označovat videa jako potraviny
Jedno z řešení je podle něj „známka“, která by u videa na sociálních sítích ukazovala, kdo obsah vytvořil a zda jej někdo upravil. „Pokud většina obsahu, co produkujeme ve svých telefonech a počítačích, bude nějak označena, vyřeší to tyto otázky. U zbylých pěti procent bude nutné přijít s detektory a systémy specializovanými na odhalování deepfaků,“ míní.
Lidé se tak podle něj budou moci sami rozhodnout, zda videu věří. Informace u videa pak přirovnává k uvádění složení na obalech potravin. „Je to podobné, jako když na tyčince máte napsané kalorie. Můžete si ji dát, ale vidíte, co v ní je,“ připodobňuje.
Spíše než regulovat umělou inteligenci je tak podle Boháčka produktivnější pracovat se sociálními sítěmi a lidmi, kteří za ně jsou zodpovědní. „Deepfake sám o sobě je vtipné video, ale sítě jej dostávají k publiku,“ upozorňuje.
Podvrhy nevyužívají jen podvodníci, ale také dezinformátoři a propaganda. Mnoho se jich objevilo například v souvislosti s americkými prezidentskými volbami. Výzkumníci ale očekávali, že budou hrát ještě větší roli. Spíše než ve velkém ale deepfaky působí postupně a v menším měřítku tím, že podrývají důvěru v realitu. „Jsou potvrzené případy napojení na ruské a čínské státní i vojenské složky,“ podotýká.
Do ruské invaze na Ukrajinu byly propaganda a deepfaky hlavně masové. Teď ale stále více cílí i na jednotlivce. „Stejné personalizované postupy, jako používají podvodníci, používají i k propagandě. Míří na vaše konkrétní preference,“ varuje Boháček.
Video: Devatenáctiletý student Matyáš Boháček pomocí umělé inteligence vytvořil deepfake moderátora (22. 3. 2024)
Devatenáctiletý student Matyáš Boháček pomocí umělé inteligence vytvořil deepfake moderátora | Video: Michaela Lišková