
Aktual.: 10.05.2025 04:42
Washington – Umělá inteligence (AI) stvořila simulaci mrtvého muže, který u soudu v Arizoně prostřednictvím videa oslovil svého vraha. Napsala o tom agentura Reuters, podle níž jde zřejmě o jeden z prvních případů svého druhu v americké soudní síni. Avatar Christophera Pelkeyho, vytvořený jeho rodinou za pomoci generativní AI, promluvil tento měsíc u vrchního soudu v Maricopě, zatímco se soudce připravoval na vynesení rozsudku.
Obžalovaný Gabriel Paul Horcasitas zastřelil tehdy 37letého armádního veterána Pelkeyho při dopravním incidentu, provázeném agresivním chováním, v roce 2021.
„Je škoda, že jsme se onoho dne setkali za takových okolností,“ říká ve videu Pelkeyho avatar. „V jiném životě bychom pravděpodobně mohli být přáteli.“ Avatar se ve videu objevil s dlouhými vousy a v zelené mikině na bílém pozadí. Hned na začátku upozorňuje, že je pouze umělou inteligencí stvořenou verzí, což je ostatně patrné z přerývaného zvuku a poněkud nesourodých pohybů rtů.
Video představuje nové využití umělé inteligence v právním systému, který na tuto překotně se rozvíjející technologii hledí se směsí fascinace a nervozity, píše Reuters. Soudy se obecně řídí přísnými pravidly pro typy informací, které lze v soudních řízeních uvádět. Několik právníků již stihly sankce poté, co pomocí systémů AI vytvořili falešné případy, které pak citovali v právních spisech.
Příbuzní Pelkeyho dostali u soudu k uvedení svého videa prostor, neboť nešlo o důkazní materiál. Horcasitas byl již předtím usvědčen z ohrožení a neúmyslného zabití a následně odsouzen k deseti a půl letům vězení.
Pelkeyho sestra Stacey Walesová agentuře Reuters řekla, že videovzkaz pomocí umělé inteligence vytvořila poté, co se jí nepodařilo tlumočit léta smutku a bolesti ve vlastním prohlášení. Sama prý ještě není připravena Horcasitasovi odpustit, ale má dojem, že její bratr by měl větší pochopení. Na tvorbě videa spolupracovala se svým manželem a jejich známým, kteří pracují v technologickém průmyslu.
Harry Surden, profesor práva na Coloradské univerzitě, říká, že využití materiálů generativní umělé inteligence u soudu vede k vážným etickým otázkám, protože někteří se mohou snažit pomocí těchto nástrojů hrát na city soudců a porotců. V tomto konkrétním případě je pak obsah simulací reality, nikoli ověřeným důkazem, který soudy obvykle posuzují, upozornil.
„Jsme svědky toho, že simulace už jsou tak dobré, že zcela obcházejí naši přirozenou skepsi a míří přímo na naše emoce,“ řekl Surden.