actionArticleDetail

web Autonomne.cz

odkaz na homepage

Autonomní doprava ve světle recentní právní úpravy umělé inteligence

Umělá inteligence zažívá v posledních letech nebývalý rozmach a pozadu nemůže zůstat ani právní úprava. Rozvoj generativních modelů však poněkud upozaďuje autonomní dopravu včetně vývoje autonomních vozidel („AV“) a jejich specifickou regulaci. Hovoříme-li o AV, máme v tomto článku obecně na mysli jak aktuální částečně autonomní vozidla, tak i budoucí více a více autonomní. Článek představuje recentní vývoj na poli právní úpravy umělé inteligence, tedy především přijetí tzv. AI Aktu a jeho dopad. Dále porovnává jeho jednotlivá ustanovení se speciálními právními předpisy EU dopadajícími na umělou inteligenci. Zvláštní pozornost si zaslouží otázka odpovědnosti za škodu způsobenou AV. Článek stručně zmiňuje právní úpravu třetích zemí i další požadavky na úpravu umělé inteligence včetně eticko-právních aspektů.

Evropský AI Akt

Nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a o změně některých předpisů Unie v oblasti umělé inteligence (Akt o umělé inteligenci neboli AI Akt) byl po mnoha letech vyjednávání schválen 13. března 2024. Aplikovat se začne postupně během 6-24 měsíců po jeho vyhlášení. Jde o jeden z prvních komplexní předpisů o umělé inteligenci na světě. Nejprve si pojďme shrnout, na jakých principech je AI Akt vystavěn. Úprava AI Aktu je založena na posuzování rizik. Od míry rizika, které posuzovaný AI systém představuje, se pak odvíjí jeho regulace.

 
Nařízení pracuje se 4 úrovněmi rizik:
  • zakázané systémy (např. skrytá manipulace chování a emocí či hodnocení sociálního kreditu, určitá biometrická identifikace - tzv. social scoring);
  • vysoce rizikové systémy („HRAIS“ pro high risk AI systems, například biometrická identifikace obecně, využití s přímým dopadem na člověka, jako některé sociální politiky, personalistika, zdravotnictví, atd.);
  • systémy s omezeným rizikem (sloužící pro interakci s člověkem či uměle vytvářející obsah) by měly splňovat minimální standardy transparentnosti. Tyto systémy tedy musí informovat uživatele, že interaguje s AI;
  • a systémy s minimálním rizikem (většina používaných systémů, jako např. chatboti).
 

Mimo tento rámec stojí obecné modely AI (typicky Chat GPT a další generativní modely). Hlavní úprava AI Aktu logicky dopadá právě na HRAIS, ostatní kategorie podléhají jeho regulaci jen ve zmenšené míře. Nařízení dále stanoví systém sankcí a například ustavuje i Evropský úřad pro umělou inteligenci.

 
Relevantní ustanovení AI Aktu a další specifická EU nařízení
V rámci Evropské unie jsou nyní ve vztahu k (částečně) autonomní vozidlům, respektive jejich vývoji a schvalování do provozu, relevantní především následující předpisy:
  • Nařízení Evropského Parlamentu a Rady (EU) 2018/858 ze dne 30. května 2018 o schvalování motorových vozidel a jejich přípojných vozidel, jakož i systémů, konstrukčních částí a samostatných technických celků určených pro tato vozidla a o dozoru nad trhem s nimi, o změně nařízení (ES) č. 715/2007 a č. 595/2009 a o zrušení směrnice 2007/46/ES („TAFR“ pro Type-Approval Framework Regulation a
  • Nařízení Evropského Parlamentu a Rady (EU) 2019/2144 ze dne 27. listopadu 2019 o požadavcích pro schvalování typu motorových vozidel a jejich přípojných vozidel a systémů, konstrukčních částí a samostatných technických celků určených pro tato vozidla z hlediska obecné bezpečnosti a ochrany cestujících ve vozidle a zranitelných účastníků silničního provozu („GSR“ pro General Safety Regulation).

Jak uvádí bod 29 preambule AI Aktu, pokud jde o vysoce rizikové systémy AI, které jsou bezpečnostními prvky výrobků nebo systémů, nebo které jsou samy o sobě výrobky nebo systémy spadající do oblasti působnosti vyjmenovaných EU předpisů včetně výše uvedených nařízení, je vhodné tyto akty změnit, aby se zajistilo zohlednění zvláštností každého odvětví a aniž by bylo zasaženo do stávajících mechanismů řízení, posuzování shody a prosazování podle těchto zvláštních předpisů.

Ačkoli mnoho systémů umělé inteligence používaných v AV bude pravděpodobně spadat do kategorie vysoce rizikových, AI Akt uznává, že AV jsou již regulovány jinými právními předpisy Unie, jako jsou právě TAFR a GSR. Cílem AI Aktu jako takového je zajistit, aby správa těchto systémů byla v souladu se stávajícími pravidly pro regulaci vozidel, a to tím, že pro ně přímo nezavádí pravidla ani požadavky, ale pouze přemosťuje různé specifika odvětví a obecné požadavky na vysoce rizikové systémy. Ačkoli tedy budou tyto systémy klasifikovány jako vysoce rizikové, budou se primárně řídit svými odvětvovými právními předpisy a standardní režim požadavků nebo povinností v rámci AI Aktu se na tyto systémy nebude vztahovat.

U zbývajících systémů používaných v AV, na které se nevztahuje zvláštní regulace, se uplatní standardní přístup k určení úrovně rizika, což znamená, že je třeba prozkoumat, zda systém spadá do vysoce rizikových případů použití (příloha III) nebo zda funguje způsobem, který podléhá specifickým požadavkům na transparentnost (článek 52 AI Aktu).

Ilustrační obrázek umělé inteligence (Zdroj: autor)

Jaké jsou tedy požadavky na systémy AI obsažené v AV, na které se vztahují harmonizační právní předpisy Unie?

V článku 2.2 AI Aktu jsou uvedena ustanovení relevantní pro HRAIS, na které se vztahují zvláštní harmonizační právní předpisy Unie, včetně AV. V souladu s tím se na AV posouzené jako HRAIS budou vztahovat i články 84 (hodnocení a přezkum Komisí) a článek 53 (ohledně regulatorních sandboxů neboli regulačních pískovišť AI).

AI Akt rovněž předjímá provedení zvláštních změn TAFR a GSR podle článků 81 a 82, které určují, aby při budoucím přijímání legislativních aktů byly zohledněny požadavky na HRAIS. Jinými slovy, ustanovení AI Aktu týkající se HRAIS, včetně požadavků a povinností, se na AV nebudou vztahovat.

Dopad AI Aktu na oblast AV lze tedy shrnout pomocí 3 pilířů:
  • při budoucích změnách AI Aktu je třeba zohlednit charakteristiky automobilového odvětví;
  • poskytovatelé HRAI souvisejících s AV mohou za určitých podmínek využívat regulační sandboxy;
  • TAFR a GSR budou změněny tak, aby stanovily zajištění zohlednění vysoce rizikových požadavků na AI v budoucích legislativních změnách.

Na systémy AI související s AV, na které se nevztahují TAFR a GSR, se může vztahovat obvyklý přístup ke klasifikaci rizik podle AI Aktu, pokud splňují podmínky uvedené v jeho příloze III. Kromě toho, pokud tyto systémy AI plní úkoly uvedené v článku 52, mohly by podléhat zvláštním povinnostem transparentnosti. Alternativně mohou být systémy, které představují minimální riziko, regulovány prostřednictvím dobrovolných kodexů chování podle článku 69. Přesné povinnosti zúčastněných stran v automobilovém odvětví by měly být vyjasněny s budoucími změnami odvětvové legislativy týkající se AV. Prozatím není jasné, zda budou tyto povinnosti plně v souladu s povinnostmi zúčastněných stran, kterými se zabývá AI Akt.

V důsledku toho mohou být některé subjekty v dodavatelském řetězci ovlivněny různými způsoby. Výrobci AV budou muset zohlednit nové povinnosti týkající se dodržování AI Aktu. Dodavatelé technologií AI pro AV budou muset zajistit, aby jejich výrobky splňovaly regulační normy, jejichž začlenění do odvětvové legislativy AV se předpokládá. Vývojáři, kteří vytvářejí, navrhují a programují technologie umělé inteligence, budou muset prověřit a případně upravit své vývojové procesy, aby zajistili, že jejich systémy nebo algoritmy budou v souladu s aktualizovanou odvětvovou legislativou pro AV.

 
Odpovědnost za škodu způsobenou AV

Hovoříme-li o právní regulaci AV, je třeba výslovně zmínit otázku odpovědnosti. Ta je ustáleně řešena pro současná silniční motorová vozidla. Na evropské úrovni je nyní navrženo upravit odpovědnost za škodu následujícími předpisy:

Zároveň je diskutována i budoucí unijní úprava škody při provozu automatizovaných motorových vozidel. V případě více právní řádů a hledání jejich společného řešení je zásadní, zda je odpovědnost koncipována jako subjektivní (za zavinění) či objektivní (za škodu bez ohledu na existenci zavinění), což lze považovat za žádoucí přístup. Do budoucna tedy bude potřeba přístupy sjednotit tak, aby autonomní doprava, ze své podstaty přeshraniční, byla všemi právními řády adekvátně řešena pokud možno co nejjednotněji.
 

Právní regulace jiných zemí

V rámci EU byly jedním z prvních členských států, jejichž právní rámec pracuje s autonomní dopravou, Německo a Francie. Jejich právní řády umožňují testování vozidel odpovídající úrovni 4. stupně autonomie na veřejných komunikacích. Z mezinárodních smluv je zasání Vídeňská úmluva o silničním provozu. Ta byla v poslední letech novelizována zapracováním definice automatizovaného systému řízení a novým článkem 34 ohledně automatizovaného řízení.
 

Pro srovnání uvádíme i stručný přehled právní úpravy v mimoevropských státech.
 
USA

Vlastní právní předpisy přijalo několik významných států. V roce 2024 s nimi přišla například Florida, Kalifornie, či Kentucky. Na federální úrovni je hlavním předpisem H.R. 3388, zákon o bezpečném zajištění životů při budoucím nasazení a výzkumu v oblasti vývoje vozidel z roku 2017. Ten stanoví federální standardy, na jejichž základě mohou jednotlivé státy přijímat vlastní právní předpisy na státní úrovni.

Spojené království

Právní úprava týkající se autonomních vozidel se v UK vyvíjí již od roku 2013. V roce 2023 byl představen návrh zákona o automatizovaných vozidlech.

Japonsko

Z dalších zemí lze zmínit například Japonsko. To v letech 2019-2023 aktualizovalo několik dopravních předpisů vedoucí k umožnění širšího využití AV operujících v režimu 4. stupně autonomie.

 
Eticko-právní aspekty a postoj veřejnosti

Evropská Komise v roce 2021 představila stručnou studii nazvanou „Umělá inteligence v autonomních vozidlech: k důvěryhodným systémům“. Ta se věnuje důvěryhodnosti AV v následujících oblastech: lokalizace AV, porozumění okolí, plánování cesty, kontrola, interakce. Za hlavní principy přitom považuje následující: Lidský faktor a dohled, technická robustnost a bezpečnost, ochrana soukromí a správa dat, transparentnost, rozmanitost, nediskriminace a spravedlnost, společenský a environmentální blahobyt, a odpovědnost. Etická dilemata spojená s AV jsou rozebírána často, stejně tak i odlišné přístupy k nim. Například v nedávné studii si adresáti mohli vybrat z teoretických nastavení AV podle 4 principů: utilistický, zaměřený na sebe, náhodný, či zákonný (založený na pozitivním právu). Podle výsledků tohoto průzkumu uživatelé obecně preferují zákonný, případně náhodný přístup před na sebe zaměřeným i utilistickým, což jeho autora vede k závěru, že ochrana vlastního života pro ně není automaticky prioritou a uživatelé AV by měli mít možnost si nastavení do určité míry zvolit. Závěry některých dalších recentních studií ukazuje například, že drtivá většina respondentů v USA má obavy z vlivu počasí a o interakci mezi AV a chodci a zároveň většina dotazovaných má obavy i o bezpečnost systémů AV, což potvrzují i srovnatelné výzkumy v jiných zemích.

 
Závěr

Přijatý AI Akt přináší novou regulaci umělé inteligence, ve vztahu k AV však spíše dílčí. Je tedy třeba budoucí úprava jak zvláštních právních předpisů týkajících se schvalování AV, tak i odpovědnosti za jimi způsobenou škodu. Vzhledem ke globálnosti tohoto tématu nelze pominout ani zahraniční, respektive mezinárodní úpravu, a při formování politických vizí i konkrétních návrhů ani názor veřejnosti a etické aspekty problematiky.