EU AI Akt – aneb jak se Evropský parlament staví k umělé inteligenci
14.06.2023
Způsob regulace, úrovně rizika a dopady na výzkum a inovace
Pro současnou podobu AI Aktu vzniká klasifikace systémů dle stupně rizika. Tyto systémy pak dále dělí do několika kategorií, od kterých se odvíjí přísnost regulace. Pro kategorii, která je hodnocená jako nepřijatelná pro lidskou bezpečnost, je využití plně zakázáno. V tomto případě se jedná například o “sociální skóre”, které by umělá inteligence přidělovala lidem a monitorovala je (jako je tomu např. ve využití v Číně), anebo další klasifikace dle chování, rasy, pohlaví, socioekonomického statusu, atd. Mezi zakázané využití patří také emoční rozeznávání, prediktivní využití policií anebo sběr biometrických dat z veřejných záznamů i sociálních sítí. Další kategorií jsou systémy s vysokým rizikem, např. týkající se kritické infrastruktury (kde mohou ovlivnit bezpečnost a zdraví lidí), vzdělávání (kde by např. rozhodly o přijetí na školu), anebo kontrolu hranic. V těchto případech systémy nebudou zakázané, ale pro zajištění bezpečnosti a správného využití budou podléhat přísnější regulaci a povinnostem monitorovat své aktivity a předcházet negativním dopadům.
V současnosti populární AI systémy jako např. ChatGPT pak spadají do poslední kategorie nízkého rizika, a mají tak podléhat nejnižší úrovni regulace. Právě tyto primární modely, mezi které patří i velké jazykové modely (LLM = large language models) jako třeba ChatGPT anebo vizuální modely jako DALL-E, nepodléhají stejným pravidlům jako rizikovější systémy. Musí ale dohlížet na své dopady na bezpečnost, demokracii, právní stát, zdraví, základní práva i životní prostředí. Mimo to budou vyšší nároky na transparentnost dat, na kterých byly modely vytvořeny a na informování uživatelů o tom, že jednají s umělou inteligencí. Tyto modely by tak neměly být zatíženy přehnanou administrativou a regulací, aby nebyl jejich rozvoj zbytečně limitován. AI Akt se snaží zamezit negativním dopadům na výzkum, inovaci a start-upy i jinými způsoby, např. výjimkami pro výzkum v případě využívání otevřených zdrojů (tzv. open-source) anebo tvorbou tzv. regulatorních “sandboxů”, tedy kontrolovaných prostředí, ve kterých je možné modely testovat i v experimentální fázi, ve které zatím nesplňují legislativní nároky.
Neshody v Evropském parlamentu
Kolem finální podoby legislativy ale v Evropském parlamentu zatím stále panují neshody. Nejzásadnější je aktuálně debata týkající se biometrické identifikace. Aktuální návrh Evropského parlamentu biometrickou identifikaci (v reálném čase i ex post) řadí mezi zakázané technologie, ale frakce ELS (Evropská lidová strana, anglicky EPP) chce ve Štrasburku hlasovat o úpravě, která by umožnila biometrickou identifikaci využít alespoň v několika definovaných ojedinělých případech a přiblížit se tím k návrhu Evropské komise. Jednalo by se o hledání ztracených osob, bezpečnostní rizika anebo teroristické útoky. Variantou je, že by tak v těchto případech bylo se soudním souhlasem možné umělou inteligenci pro biometrickou identifikaci pro zaručení bezpečnosti využívat (potenciálně v reálném čase i zpětně), ale poslanecké kluby z levice se staví proti tomuto návrhu, jelikož zdůrazňují možné zneužití a rizika masového sledování. Před ujasněním podoby, která má vyjít z plenárního zasedání ve Štrasburku tento týden, tak bude potřeba dalších debat a hledání kompromisu.
Nejistoty, kritika a mezery
K efektivní regulaci AI je stále potřeba mnoho dořešit. Kritici AI Aktu poukazují například na to, že nebude dostatečná, pokud bude z velké části závislá na tom, do které kategorie rizikovosti firmy samy sebe zařadí. Kromě toho musí být dostatečně flexibilní a reagovat na extrémně rychlý vývoj AI. V kategorizaci by tak ideálně bylo možné rychle zařadit nové technologie, využití a rizika, která v době vzniku Aktu neexistují. Za větší diskuzi by stál také rozsah samotného aktu – aktuálně se totiž soustředí především na nebezpečí pro jednotlivce (jako např. předcházení sledování či ochrana soukromí), ale AI představuje také rozsáhlé hrozby na celospolečenské úrovni (např. dopady rychleji a věrohodněji zpracovaných fake news na demokratické volby). Pro detailnější pokrytí podobných rizik vzniká prostor pro následující legislativu, která by současný návrh AI Aktu mohla následovat.
Závěrem
Ačkoliv se konečné detaily AI Aktu musí ještě doladit na plenárním zasedání Evropského parlamentu tento týden a následně i na finálním trialogu mezi Parlamentem, Komisí a Radou, již nyní je jasné, že jeho dopady budou rozsáhlé a zásadní pro určení směřování AI v příštích letech. Vzhledem k tomu, že prozatím podobná legislativa jinde neexistuje, očekává se také “bruselský efekt“, díky kterému může Akt sloužit jako inspirace pro další státy. Po omezení ekonomické a legislativní fragmentace v EU by tak mohlo následovat i přiblížení pravidel v dalších zemích. Celkově by Akt měl zajistit omezení alespoň těch největších hrozeb, ale zároveň přehnaně neomezovat bezpečné systémy a nesnížit investice ve výzkum a inovace. Díky nastavení mantinelů bychom doufejme v budoucnu umělou inteligenci mohli co nejlépe využít, co nejméně zneužít a zajistit tak její bezpečný rozvoj v náš prospěch.
Aktualizace, 14.6. 2023
AI Akt dnes prošel hlasováním Evropského parlamentu na plenárním zasedání ve Štrasburku. Odhlasovaná podoba zakazuje využití biometrické identifikace v reálném čase – technologie by tedy pro využití ve vymezených případech (např. hledání ztracených osob anebo prevence terorismu) měla být umožněna jen ex post (a ne i v reálném čase, jak navrhovala frakce EPP). Dnes tak mohou začít jednání Parlamanetu s Radou o finální podobě, po kterých bude v příštích měsících AI Akt finálně schváleným zákonem.
Více informací je k dispozici z tiskové zprávy Evropského parlamentu: