Blog

Jak „zkrotit“ umělou inteligenci? Evropská komise má řešení

Evropské tažení na cestě za udržitelným rozvojem umělé inteligence (AI) pokračuje. Evropská komise představila na konci dubna netrpělivě očekáváný návrh nařízení pro regulaci systémů využívajících umělou inteligenci.

Nový návrh nařízení je ambiciózním počinem v rámci evropské datové strategie, za kterým stojí několikaletá práce Komise (přečtěte si naše články o Etickém rámci nebo Bílé knize), řada veřejných a odborných konzultací a vliv mnoha zainteresovaných aktérů. Primárním cílem nové regulace je vytvoření rámce, v němž budou hlavní roli hrát především dva aspekty: co možná největší prostor pro rozvoj AI a s tím související jasně nastavené hranice ochrany základních práv a svobod jednotlivce. Návrh nařízení měl dopadat nejen na subjekty a systémy AI na území EU, ale i mimo ni. Tedy i na subjekty, které se sice nacházejí mimo území EU, ale jejich systémy AI se dotýkají osob na území EU.

Kategorie dle míry rizika

Návrh nařízení kategorizuje technologie AI dle míry rizika, které jednotlivý druh technologie přináší vzhledem k ochraně práv jednotlivce.

Mezi zakázané technologie patří několik technologií AI, u kterých je riziko pro práva jednotlivce nepřijatelné. Jedná se například o technologie schopné podprahové manipulace lidského chování a způsobení újmy, systémy umožňující veřejnoprávním institucím zavádět tzv. social scoring nebo systémy umožňující v reálném čase používat vzdálené biometrické identifikace (facial recognition) na veřejně přístupných místech pro účely vymáhání práva. Zákazy mají především zamezit zneužití informací o jedincích na území EU pro politické či diskriminační účely.

Za vysoce rizikové návrh nařízení označuje soudobé i potenciální nové technologie AI za předpokladu, že mohou ohrozit základní práva a svobody jednotlivce. Definici vysoce rizikových technologií AI návrh nařízení neobsahuje. Vyjmenovává ale určitá kritéria, při jejichž splnění lze považovat konkrétní technologii za vysoce rizikovou. Užívá propojení s legislativou upravující bezpečnost výrobků (odkazuje na konkrétní produkty a komponenty) a dále řadí technologie AI dle oblastí, ve kterých považuje jejich používání za vysoce rizikové (například oblast biometrické identifikace a kategorizace osob, kritické infrastruktury, vzdělávání, migrace a azylu, zaměstnávání nebo výkonu spravedlnosti a demokratických procesů).

Pro vysoce rizikové technologie AI bude platit převážná většina nově uváděných povinností. Návrh nařízení požaduje zvýšené nároky na transparentnost a kybernetickou bezpečnost, stejně jako povinnost lidského dohledu nad technologiemi AI. V případě selhání na straně technologie AI pak nařízení poskytne pravomoc příslušným státním orgánům pro účely kontroly dodržení nařízením stanovených povinností. V souladu s naplněním požadavku transparentnosti by měla nově vzniknout také evidence vysoce rizikových technologií AI.

Povinnosti vyjmenované v návrhu nařízení se budou do jisté míry vztahovat na všechny subjekty zúčastněné v „životním cyklu“ technologie AI, tj. jak na poskytovatele, tak dovozce, distributora i na uživatele. Všechny subjekty musí splnit požadavky dle příslušného zařazení už při vstupu konkrétní technologie na evropský trh.

Kategorie limitované míry rizika upravuje povinnosti primárně ve vztahu k transparentnosti procesu a informovanosti osob na území EU. Jedná se například o komunikaci uživatele s chatboty či interakce s tzv. deepfake tvorbou, kdy by daná osoba měla být na tento fakt upozorněna.

V případě AI technologií s minimální mírou rizika se jedná o další systémy a mechanismy AI, které nepodléhají doplňující regulaci automaticky, nýbrž pouze na dobrovolné bázi. Valnou většinu již existujících systémů AI v rámci EU lze zařadit do této kategorie.

Z výše uvedeného samozřejmě existují výjimky. Jednou z všeobecných výjimek jako takových je například využívání technologií AI pro armádní účely.

Vymahatelnost a další kroky

Po vzoru dalších na datovou sféru orientovaných předpisů svěřuje návrh nařízení dohled nad jeho dodržováním jednotlivým členským státům, resp. jejich příslušným orgánům. Zástupci národních orgánů členských států mají vytvořit Evropskou radu pro umělou inteligenci. Jejím cílem by mělo být dohlížení nad aplikací nařízení a koordinace činnosti v této oblasti.

K vymáhání povinností návrh nařízení představuje přísné pokuty. Ty mohou být v závislosti na druhu porušené povinnosti stanoveny v různých hladinách – až 2 % globálního ročního obratu nebo 10 milionů eur, až 4 % globálního ročního obratu nebo 20 milionů eur, případně až 6 % globálního ročního obratu nebo 30 milionů eur.

Vedle pozitivních ohlasů na zveřejněný návrh zaznívá i kritika zejména ve vztahu k množství výjimek a mezer (například ve vztahu k facial recognition, široké autonomii v oblasti samoregulace, limitovanému rozsahu působnosti nařízení pouze na některé technologie AI), které do jisté míry relativizují deklarovanou orientaci na ochranu základních práv a svobod a otevírají vrátka pro případné zneužití technologií AI.

Je třeba připomenout, že se jedná o návrh nařízení, který má před sebou maraton legislativního procesu a jistě řadu změn. Návrh nařízení budeme na jeho cestě detailně monitorovat. Už nyní lze nicméně odhadovat, že do cílové rovinky to může trvat i několik let (jako tomu je v případě nařízení ePrivacy).