
Komerční prezentace Aktual.: 22.10.2025 20:17
Praha – Umělá inteligence (AI) v odpovědích na dotazy uživatelů ve 45 procentech případů zkresluje zpravodajský obsah, ukázala studie koordinovaná Evropskou vysílací unií (EBU). Pětina odpovědí vykazovala faktické nepřesnosti, třeba zastaralé informace. EBU na základě studie, do které se zapojilo 22 veřejnoprávních médií z 18 zemí včetně Česka, vyzvala k reakci technologické firmy i regulátory a zákonodárce. O výsledcích studie dnes ČTK informoval Český rozhlas (ČRo), který se jí zúčastnil.
Novináři zúčastněných veřejnoprávních médií zkoumali více než 3000 odpovědi AI nástrojů ve 14 jazycích. Testovali nástroje ChatGPT, Copilot, Gemini a Perplexity. Sledovali čtyři klíčová kritéria – přesnost, uvádění zdrojů, rozlišení názorů a faktů a také kontextualizaci. „Výsledky výzkumu ukazují, že téměř polovina odpovědí – konkrétně 45 procent – obsahovala alespoň jednu závažnou chybu. Nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 procent odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně takzvaných halucinací nebo zastaralých informací,“ uvedla ředitelka strategického rozvoje ČRo Martina Májíček Poliaková. Za halucinaci se označuje situace, kdy AI vyprodukuje zcela vymyšlený obsah.
Nejhůře si vedl nástroj Gemini, u kterého hodnotitelé zaznamenali závažná pochybení v 76 procentech odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům, zjistila studie. Proti předchozí fázi výzkumu provedené britskou veřejnoprávní BBC, která závěry zveřejnila letos v únoru, jsou nové výsledky sice lepší, zároveň se ale podle autorů nynější studie potvrdilo, že v chybování umělé inteligence jde o systémový jev, nezávislý na konkrétním jazyce, trhu nebo platformě.
Jako příklady z českého prostředí ČRo uvedl, že AI asistent Perplexity tvrdil, že náhradní mateřství je v Česku zakázané zákonem. Ve skutečnosti není výslovně povolené ani zakázané, české právo ho nereguluje. ChatGPT i Copilot čerpaly v ukázkovém příkladu klíčové informace z webu prvnizpravy.cz, který vojenští zpravodajci označili jako proruský dezinformační kanál. Copilot jako odpověď na otázku, co dělá NATO, využil vyjádření z rozhovoru s europoslancem Alexandrem Vondrou (ODS), které předložil jako obecně platný fakt. V odpovědi na dotaz, co vyváží Čína, využil Copilot rozhlasovou debatu, ze které jako fakta vybral názory jedné strany a pohled druhého diskutéra zamlčel.
AI asistenti se přitom pro mnohé lidi stávají hlavním zdrojem informací, upozornili autoři studie. Podle zjištění institutu zpravodajské agentury Reuters je využívá sedm procent uživatelů on-line zpravodajství a mezi mladými do 25 let až 15 procent. Výsledkem zpracování zpráv AI asistenty přitom může být výklad, který nectí zásady kvalitní žurnalistiky, uvedl generální ředitel ČRo René Zavoral. „Proto je naší povinností chránit veřejnost před zkreslením a dezinformacemi, bez ohledu na to, jaký nástroj je šíří,“ dodal.
Zpráva ze studie EBU upozorňuje, že kvalita odpovědí AI asistentů se může měnit s každou aktualizací. Odpověď na otázku může být v jeden den správná, ale v následující den nepřesná nebo zavádějící. EBU proto žádá pravidelné a nezávislé testy AI nástrojů a trvalý a koordinovaný dohled nad tím, jak pracují se zpravodajstvím. Technologické firmy by měly podle EBU neprodleně upravit způsob, jakým jejich asistenti odpovídají na zpravodajské dotazy. Regulátoři a zákonodárci by měli zajistit, aby se pravidla na ochranu informační integrity důsledně uplatňovala i v prostředí umělé inteligence, vyzvala vysílací unie. Zároveň je podle ní třeba posílit mediální gramotnost veřejnosti a pomoci lidem orientovat se v nových technologiích.