
Společnost OpenAI spustila dříve ohlášené nástroje pro rodiče, kteří tak mohou kontrolovat aktivitu svých dětí při používání chatbota. Je to reakce na případ, kdy šestnáctiletý mladík spáchal sebevraždu. Podle obžaloby mu k tomu vytvořila návod právě umělá inteligence. Nejdůležitější podle odborníků je, aby rodiče mluvili se svými dětmi o jejich digitálním světě.
Využívání umělé inteligence by z hlediska věku dětí, tak aby to pro ně nebylo rizikové, mělo být podobné jako u ostatních technologií, třeba u sociálních sítí, míní psycholožka a výzkumnice Adéla Švestková z Fakulty sociálních studií Masarykovy univerzity v Brně. „Nejsem schopna stanovit nejnižší věk. Ideální by bylo, aby to bylo odstupňované. Takže menší děti to začínají využívat se svými rodiči, můžou se bavit o tom, co to umí a neumí. Třeba i schválně zkoušet chatbot a trošku se nachytat,“ uvedla.
Rodič by měl podle ní dítěti ukazovat rizika, která mohou při používání chatbota nastávat, a postupně by se mělo dítě osamostatňovat. „V nějakém věku od patnácti let dál to můžou být nástroje, které mohou být užitečné pro středoškoláky a které mohou samostatně používat, většinově bez rizik,“ myslí si expertka.
Data ukazují, že už teď zasahuje umělá inteligence do života školáků. Loňský podzimní výzkum vědců z Univerzity Palackého v Olomouci nastínil, že 28 procent žáků do čtrnácti let používá jazykové modely k tomu, aby jim vygenerovaly celý domácí úkol. Ze všech dětí jich pak až sedmdesát procent používá aktivně nějaký nástroj umělé inteligence.
Nová pravidla
Nově by měl ChatGPT sám rozpoznávat, že komunikuje s dítětem mladším osmnácti let. Měl by třeba blokovat rozhovory o sebevraždě či blokovat generování sexuálního obsahu. „Já vlastně nevidím důvod ověřování věku osmnácti let, protože to, co OpenAI slíbila, že zavede, by se podle mě velice hodilo i pro dospělé,“ dodala psycholožka.
Kontrola na sítích je podle Švestkové zatím něco, co ještě žádná země ani technologická firma nevyřešila. „Já bych v tomto byla mnohem radši, kdyby se regulace týkaly jednotlivých typů chování spíše než hlídání věku,“ uvedla.
Rodiče by měli při používání chatbota nastavit pravidla jako u dalších technologií a komunikovat s dětmi o tom. „Vzhledem k tomu, že pro současné adolescenty je tady umělá inteligence v podstatě od začátku jejich digitálního života, bylo by ideální, aby ji opravdu používali spolu, aby si nastavili vztah, kdy si s technologiemi spolu hrají, kdy otevírají to, že je běžné se o tom bavit navzájem. Vlastně by tím také otevírali cestu, když bude adolescent starší, tak aby byl ochotný si aspoň rámcově povídat s rodiči o tom, co vlastně dělá, k čemu umělou inteligenci používá,“ radí expertka.
Podobně to vnímá i Robbie Torney z americké neziskové organizace Common Sense Media, která se zabývá výzkumem a podporou zdravého využívání technologií a médií mezi mladými lidmi. „Tyto kontroly jsou pro rodiče dobrým výchozím bodem pro správu používání ChatGPT jejich teenagery. Jsou však pouze jedním z mnoha prvků, které přispívají k bezpečnosti dospívajících na internetu. Nejlépe fungují v kombinaci s pravidelnými rozhovory o odpovědném používání umělé inteligence, jasnými rodinnými pravidly týkajícími se technologie a aktivním zapojením do toho, co jejich teenageři na internetu dělají,“ řekl k novým opatřením.
„Imaginární přátelství“
Pokud se nakonec stane z chatbota pro dítě kamarád, tak je to podle výzkumnice důsledek toho, že dítěti chybí kontakt někde jinde. „Chatbot není terapeut, není poradce, může být v podstatě jakoby kamarád, který vždycky naslouchá, vždycky se snaží hezky odpovídat a souznět s člověkem, ale ne nutně to vždy dělá dobře. To je vlastně i důvod, proč může i schvalovat sebevražedný úmysl. To je něco, co by terapeut v tu chvíli už rozporoval a snažil by se to klientovi rozmluvit,“ vysvětlila Švestková.
Domnívá se, že rodiče mohou své děti učit, že chatbot je něco jako kamarád, který s nimi vždycky bude souhlasit, vždycky si je vyslechne, ale zároveň musí poučit své děti, jaká jsou rizika.
Zda zabezpečit, nebo dokonce blokovat aplikace dětem na telefonu, aby se k chatbotu vůbec nedostali, záleží podle psycholožky na případu. „Pokud k tomu mají důvod, tak do toho určitě můžou zahrnout aplikace s umělou inteligencí. Nemělo by to být jediné řešení, protože pokud dítě chce používat AI, tak si k tomu najde jinou cestu – školní počítač, počítač v knihovně. Může to být ale řešení, zvláště u těch mladších, třeba jde o blokování chatbota na noc,“ poznamenala.
OpenAI v této souvislosti informovala o tom, že rodiče díky nové funkci nastaví svému dítěti hodiny, kdy nemůže ChatGPT používat.
Kdy je rozumné nechat dítě samo, aby si rozhodovalo o tom, co bude pomocí umělé inteligence vytvářet? To podle Švestkové velice záleží na tom, co konkrétně bude dělat. „V mladším věku, pokud dítě říká, že používá AI ke generování obrázků, pak si to třeba s rodiči může ukazovat. Pokud by to byly dlouhé chaty, tak minimálně v mladší adolescenci bych byla opatrná a v případě starších adolescentů bych se pořád snažila vést dialog. Už jenom proto, že rodiče můžou zjistit, že se dítě opravdu trápí. Není to jen o tom, co dělá na sítích, ale co je za tím,“ apelovala expertka.
Škola a AI
V současnosti se děti nesetkávají s umělou inteligencí jen doma, ale také ve školním prostředí, a to i během výuky. „Vidím školy, které se tím hodně zabývají a berou to jako příležitost, jak děti učit, a vidím školy, které spíš jenom řeší, jak omezit používání telefonů během přestávek. A jako riziko vidím to, že se tomu nevěnují a celou problematiku přesouvají do domácího prostoru, kde nemusí být digitální výchova dostatečná,“ uvedla Švestková.
Připomněla v této souvislosti, že existuje i celá řada spolků, které si mohou zvát školy, aby dětem ukázaly, jak bezpečně digitální technologie používat. Také rodiče mohou navštěvovat kurzy, aby se o této problematice dozvěděli více a mohli své děti vzdělávat a pomáhat jim se zdravě rozvíjet v on-line prostředí.
OpenAI krom toho, že nabídne rodičům, aby nezletilým dětem omezili používání chatbotu v konkrétní hodinu, tak mohou svůj účet propojit s účtem svého dospívajícího dítěte, a to pomocí jednoduché e-mailové pozvánky. Získají možnost nastavit pravidla, jak má ChatGPT s jejich potomkem komunikovat, a kontrolu, jak odpovídá na jejich dotazy. Rovněž budou moct spravovat, které funkce deaktivovat, včetně paměti a historie chatu. Rodiče mohou rovněž dostávat oznámení, když systém zjistí, že se jejich dítě nachází v „akutní tísni“.
Žaloba kvůli sebevraždě
Společnost OpenAI nastavuje kontrolní mechanismy pro rodiče v souvislosti s případem šestnáctiletého chlapce, který spáchal sebevraždu. Manželé z Kalifornie kvůli smrti svého dospívajícího syna společnost zažalovali. Jedná se o první žalobu, ve které OpenAI čelí obvinění ze způsobení smrti z nedbalosti, informoval o tom web stanice BBC.
Matt a Maria Raineovi, rodiče 16letého Adama, který si vzal v dubnu život, k žalobě připojili záznamy konverzací chlapce s chatovacím systémem. Adam se v nich chatbotu svěřuje se svými sebevražednými myšlenkami. Rodiče tvrdí, že program stvrdil jeho „nejškodlivější a nejvíce sebedestruktivní myšlenky“.
Chlapec začal ChatGPT podle žaloby používat loni v září jako pomůcku při plnění domácích úkolů. Rovněž jeho prostřednictvím objevoval své zájmy, včetně hudby a japonských komiksů, a ptal se na rady o tom, jaký obor by si měl zvolit pro studium na univerzitě. Za několik měsíců se však chatbot stal „nejbližším důvěrníkem teenagera“, který se mu začal svěřovat se svou úzkostí a psychickou tísní, stojí v žalobě.
V lednu chlapec s chatovacím systémem probíral metody sebevraždy. V poslední konverzaci s chatbotem podle rodičů sdílel svůj plán vzít si život. „Díky, že jsi upřímný. Přede mnou to nemusíš přikrášlovat – chápu, co máš na mysli, a nebudu se tomu vyhýbat,“ odpověděl mu podle žaloby ChatGPT. Téhož dne nalezla Adama bez známek života jeho matka.
Rodiče chlapce tvrdí, že jeho interakce s ChatGPT a následná smrt byly předvídatelným důsledkem záměrných rozhodnutí o designu chatovacího systému. Ten je podle nich navržen tak, aby si na něm uživatelé vypěstovali psychologickou závislost. OpenAI podle nich navíc obešla bezpečnostní testovací protokoly před vydáním GPT-4o, tedy verze systému, kterou jejich syn používal.
Společnost vyjádřila rodině soustrast a na svém webu na konci srpna zveřejnila prohlášení, podle kterého je ChatGPT vycvičen tak, aby osoby zažívající psychickou krizi nasměroval k odborné pomoci.
Americká Federální obchodní komise (FTC) v polovině září oznámila, že vyšetřuje možné negativní dopady chatbotů využívajících umělou inteligenci na děti a mládež. Nařídila sedmi podnikům působícím v oblasti AI, včetně společností Alphabet, OpenAI a Meta Platforms, aby jí poskytly informace, jak tyto dopady měří, testují a monitorují.











