I mozek AI může „shnít“ pod záplavou banalit, ukázala studie — ČT24 — Česká televize

Fenomén brainrotu, tedy záplavy primitivního zapomenutelného obsahu na sociálních sítích, neškodí jenom lidem, ale také nelidem – konkrétně velkým jazykovým modelům. Pokud ho konzumují příliš, nejenže hloupnou, ale také se jim horší povaha, ukázala studie.

Lavina primitivních informací se každý den dlouhé hodiny sype do mozků většiny lidí na planetě: stovky banálních statusů, bezobsažných videí a neoriginálních fotografií se prostřednictvím sociálních sítí umísťují na sítnice lidských očí, ale hlouběji do paměti se neotiskují: existují studie, které ukazují, že konzumenti si z těchto desítek minut strávených nad obrazovkou nepamatují téměř nic. Tomuto fenoménu se říká brainrot neboli mozková hniloba a poprvé ho použil už slavný spisovatel Henry David Thoreau v polovině devatenáctého století.

Zatímco se Anglie snaží vyléčit hnilobu brambor, nepokusí se někdo vyléčit hnilobu mozku, která převládá v mnohem větší míře a je fatálnější?

Mezi psychology se objevují čím dál silnější obavy, že tato „aktivita“ dělá lidi hloupějšími, méně soustředěnými a „ploššími“, bez schopnosti vnímat naplno emoce vlastní i ostatních. Nová studie teď prokázala, že velmi podobné dopady má brainrot nejen na inteligenci lidskou, ale i tu umělou.

Experiment provedli experti ze tří amerických univerzit na velkých jazykových modelech, což je dnes nejrozšířenější forma umělé inteligence. Pro tento pokus shromáždili milion příspěvků typu brainrot ze sociální sítě X: jednak typické tamní krátké zprávy s komentáři a pak delší obsah ze stejného místa, typický senzacechtivými nadpisy, povrchním a celkově bulvárním obsahem. A pak experti začali čtyři různé AI na tomto vzorku trénovat a sledovali, co to udělá se schopnostmi těchto modelů.

Když hnije křemíkový mozek

Výsledky byly podobné tomu, co psychologové vidí u lidí – myšlení AI upadalo. Ani jeden z testovaných modelů se nedokázal tomuto vlivu úplně bránit, u všech došlo k poklesu kognitivních schopností. Zajímavé bylo, že zatímco ty větší modely (například Llama) upadaly poměrně výrazně, ty nejprimitivnější (Qwen 3 4B) byly mnohem odolnější. Nabízelo by se vysvětlení českým příslovím „kde nic není, ani čert nebere“, ale vědci pro tuto interpretaci zatím nemají dost důkazů.

Naopak jsou už schopní říct, že čím více hniloby AI v tréninkových datech dostaly, tím více hlouply. Když tato míra přesáhla kritickou hranici, modely se úplně zhroutily a přestaly být schopné odpovídat na běžné otázky, natož aby byly schopné svoje případné odpovědi nějak zdůvodnit.

Vůbec nejzajímavějším zjištěním ale je, že s mírou vystavení tomuto komunikačnímu balastu se měnil nejen „intelekt“ modelů, ale také jejich „charakter“. Umělé inteligence totiž mají různou míru sebedůvěry, odlišnou míru toho, jak ochotné jsou odpovídat, a podobně. Čím více byly nakrmené „hnilobnými“ daty, tím více se staly narcistními a méně vlídnými.

Výsledky sice mohou připadat čtenářům zajímavé tím, že si je porovnají s tím, jaký dopad má brainrot na lidi, ale to zásadní pro vědce je, že existuje přímý dopad na další výzkum AI. Ty se dnes trénují na stále větších vzorcích dat, často právě ze sociálních sítí. To ale může mít podle vědců spíše negativní dopady. Účinnější jsou podle nich kvalitní zdroje – stejně jako rodiče raději zajistí pro své dítě dobrou knihu, než aby ho nechali sjíždět nekonečné řady komentářů na Instagramu nebo TikToku.

Podíl.