Podle nové studie finského filozofa Franka Martely by některé modely současných umělých inteligencí (AI) mohly mít svobodnou vůli. A to by podle něj mohlo mít závažné dopady na spoustu dalších oblastí lidského života.

Umělá inteligence se vyvíjí nesmírně rychle, co týden přichází nový objev. Schopnosti chatbotů a dalších aplikací AI mění podnikání, společnost, ale také úvahy o tom, co dělá člověka člověkem. Otázky, které se ještě před několika lety objevovaly jen ve vědecko-fantastických románech, si dnes pokládají univerzitní vědci.

Jedním z nich je i finský filozof a psycholog Martela, který se profesionálně věnuje nejvíc právě otázce svobodné vůle. Pokusil se podívat na to, jestli současné AI mohou mít něco takového, jako je svobodná vůle. Vědec vychází ze tří filozofických podmínek, jak je popsali Daniel Dennet a Christian List.

Těmito podmínkami jsou schopnost cílevědomě jednat, opravdu se rozhodovat a mít kontrolu nad svými činy. Podle Martelovy studie, kterou vydal odborný časopis AI and Ethics, několik AI tyto podmínky splňuje. Konkrétně dvě – agent Voyager ve hře Minecraft a fiktivní zabijácké drony „Spitenik“. Ty sice neexistují, ale Martela v nich zkombinoval několik vlastností individuálních (již existujících) dronů do jednoho stroje, který má všechny už reálně existující funkce najednou.

„Zdá se, že oba (modely) splňují všechny tři podmínky svobodné vůle – u nejnovější generace agentů AI musíme předpokládat, že svobodnou vůli mají, pokud chceme pochopit, jak fungují, a být schopni předvídat jejich chování,“ říká Martela. Dodává, že tyto případové studie jsou široce použitelné pro v současnosti dostupné generativní agenty využívající takzvané velké jazykové modely.

Stroje se svobodnou vůlí

Tento výzkum ukazuje, jak zásadní změnou pro lidstvo příchod umělých inteligencí může být. „Vstupujeme na nové území. Vlastnictví svobodné vůle je jednou z klíčových podmínek morální odpovědnosti. Není to sice podmínka postačující, ale je to krok blíže k tomu, aby umělá inteligence měla morální odpovědnost za své činy,“ dodává Martela.

Z toho podle něj vyplývá, že se stávají mnohem důležitějšími a aktuálnějšími otázky ohledně „výchovy“ AI. Odborně se to označuje jako „alignment“. Tento pojem má více rovin, hráči videoher ho znají jako „přesvědčení“ neboli hodnotu, která určuje motivaci postav a jestli je výsledek jejich aktivity dobrý nebo zlý.

V oblasti AI je cílem výzkumu alignmentu nasměrovat systémy umělé inteligence k zamýšleným cílům, preferencím nebo etickým zásadám, které odpovídají zájmům lidstva nebo alespoň nějakých skupin. Nesprávně nastavený systém umělé inteligence by mohl škodit nebo by mohl mít nezamýšlené cíle.

„Vývoj nás přivádí ke kritickému bodu v historii lidstva, kdy dáváme umělé inteligenci více moci a svobody potenciálně i v situacích, kdy jde o život nebo smrt. Ať už se jedná o autonomního bota, samořídící auto nebo zabijácký dron, morální odpovědnost se může přesunout z vývojáře umělé inteligence na samotného agenta AI,“ uvádí Martela.

A to může být problém, protože AI nemá morální kompas, pokud není přímo naprogramována tak, aby ho měla. „Čím větší svobodu však umělé inteligenci dáváte, tím více je třeba jí morální kompas dát hned od začátku. Jen tak bude schopna činit správná rozhodnutí,“ dodává vědec.

„Umělá inteligence se stále více přibližuje dospělosti – a stále častěji se musí rozhodovat ve složitých morálních problémech světa dospělých. Tím, že vývojáři dávají umělé inteligenci pokyny, aby se chovala určitým způsobem, předávají jí také své vlastní morální přesvědčení. Musíme zajistit, aby lidé vyvíjející AI měli dostatek znalostí o morální filozofii, aby ji dokázali naučit dělat správná rozhodnutí ve složitých situacích,“ vyzývá Martela.

Podíl.
Exit mobile version