Univerzita Karlova se stala hlavním koordinátorem mezinárodního projektu Otevřené velké jazykové modely pro umělou inteligenci v Evropě. Budou v něm spolupracovat evropské firmy, výzkumné instituce a výpočetní centra zabývající se umělou inteligencí. V projektu OpenEuroLLM za asi 34 milionů eur (854,7 milionu korun), financovaném s podporou Evropské komise, vybuduje tým evropských výzkumných institucí rodinu výkonných, vícejazyčných velkých jazykových modelů. Využití najdou v komerčním, průmyslovém i veřejném sektoru.

Projekt podle univerzity souvisí s potřebou zlepšit konkurenceschopnost a digitální nezávislost Evropy. Velké jazykové modely budou podle zástupců UK odpovídat evropským regulacím. Takzvaný Akt o umělé inteligenci schválili europoslanci loni na jaře, platný je od srpna, plně použitelný má být o dva roky později s některými výjimkami, vyplývá z informací na webu Evropské komise. Nařízení zavádí klasifikaci technologií podle způsobu využití a nastavuje různé úrovně omezení podle míry souvisejících rizik. Nová pravidla by měla zajistit, aby umělá inteligence byla důvěryhodná, bezpečná, respektovala základní práva EU a podporovala inovace.

Projekt je ukázkovým příkladem spolupráce různých sektorů pro vývoj evropských produktů umělé inteligence respektujících hodnoty uznávané v celém evropském technologickém ekosystému. Modely budou respektovat evropský regulační rámec, který zajišťuje soulad s evropskými hodnotami a zároveň umožňuje zachovat technologickou excelenci.

Velké jazykové modely mohou odpovídat na dotazy, jako součást dalších aplikací mohou řešit například i kreativní úlohy, poskytovat automatický překlad, generovat texty na dané téma či udělat shrnutí dlouhých textů.

AI by měly být otevřené

Podle univerzity je zásadní, aby tyto modely byly otevřené, tedy aby bylo možné zkoumat nedostatky, které stále přetrvávají. Jde například o fabulaci nebo v některých případech neschopnost vysvětlit, co a proč samy modely odpověděly. Zároveň je otevřenost potřebná pro to, aby bylo možné prokázat, že modely odpovídají evropským normám ohledně rizikových aplikací v umělé inteligenci, uvedla UK.

Ve spolupráci s komunitami podporujícími otevřenou vědu a dalšími odborníky bude podle zástupců projektu zajištěno, že modely, software, data a evaluační postupy budou plně otevřené a bude je možné upravovat pro specifické potřeby výzkumu, průmyslu i veřejného sektoru. Projekt využije výsledků předchozích evropských projektů a zkušeností partnerů, včetně dříve vyvinutých pilotních velkých jazykových modelů.

AI může pomáhat

„Transparentní modely s otevřeným zdrojovým kódem, vyhovující i evropské regulaci, demokratizují přístup k vysoce kvalitním technologiím v oboru umělé inteligence a posílí schopnost evropských firem konkurovat na globálním trhu a veřejným organizacím umožní poskytovat účinné veřejné služby,“ řekl koordinátor projektu Jan Hajič z Matematicko-fyzikální fakulty UK.

Na projektu se podílí výzkumné instituce a univerzity z Francie, Nizozemska, Německa, Švédska, Finska a Norska a firmy z Finska, Německa, Francie a Španělska. Podílí se i centra EuroHPC ze Španělska, Itálie, Finska a Nizozemska.

Nová pravidla AI platí od neděle

V Evropské unii začala některá nová pravidla pro nakládání s umělou inteligencí platit už od neděle. Podle unijního zákona o umělé inteligenci je zakázáno používat programy umělé inteligence, které provádějí hodnocení na základě sociálního chování – tedy že by lidé mohli být rozděleni do kategorií podle chování a následně odměňováni, nebo trestáni.

Rozpoznávání obličeje na veřejných místech, tedy například prostřednictvím kamerového systému, by rovněž nemělo být povoleno. Existují však výjimky: policii a dalším bezpečnostním orgánům může být umožněno používat rozpoznávání obličejů za účelem stíhání některých trestných činů, jako je obchodování s lidmi a terorismus.

S termínem 2. února 2025 musí společnosti, které vyvíjejí nebo používají umělou inteligenci, posoudit své systémy podle míry rizika a přijmout vhodná opatření, aby splnily nastupující právní požadavky. Podle Evropské komise je cílem nového nařízení nejen ochrana práv spotřebitelů. Chce také zajistit, aby se AI používala odpovědně.

Česko dopady řeší

V České republice by mohla tato pravidla dopadnout například na kamerový systém na Letišti Václava Havla, který používá systém umělé inteligence pro biometrickou identifikaci na dálku v reálném čase, uvedl pro Českou televizi mluvčí ministerstva vnitra Ondřej Krátoška. „Fungování tohoto systému na veřejných prostorách letiště závisí na schválení sněmovního tisku 807, který v současnosti projednává Poslanecká sněmovna. Podobný systém má být zaveden i na dalších mezinárodních letištích v České republice.“

V době do schválení této novely bude podle něj nutně využívání těchto systémů na letišti jistým způsobem omezeno tak, aby vyhovovalo podmínkám AI Aktu. „Vzhledem k možným bezpečnostním dopadům nechceme toto omezení upřesňovat,“ dodal.

AI Akt podle něj přináší určitá nová omezení postupů bezpečnostních sborů při prevenci a potírání trestné činnosti. „Bude na tyto sbory klást větší nároky a požadavky. Jeho správná a přiměřená implementace by však neměla nutně vést k významnému snížení schopnosti bezpečnostních orgánů zajišťovat vnitřní bezpečnost,“ dodal Krátoška.

Podíl.
Exit mobile version