EU a umělá inteligence
07.06.2021
Zároveň Evropská komise přímo rozdělila AI do 4 kategorií podle stupně rizika; minimální, střední, vysoké a neakceptovatelné riziko. Do minimálního rizika se řadí například videohry do středního pak chatboti, kde musí transparentně specifikováno, že uživatel komunikuje s robotem. Vysoké riziko, jsou třeba různé výběrové procesy založené na neuronových sítích AI. V tomto případě je lidský dohled zcela nepostradatelný, jelikož neuronové sítě jsou pro člověka zcela netransparentní.
Pokud však skrytá algoritmická předpojatost nebude rozpoznána, mohlo by to vést k neetickým a nespravedlivým následkům. Jak zdůrazňuje profesor Oxfordské univerzity Nick Bostrom, umělou inteligenci lze použít k manipulaci s veřejností, což bylo například zaznamenáno v amerických prezidentských volbách v roce 2016, zejména k zesílení dezinformací. Řešení je velmi konvenční, ale stále je v konkrétních případech obtížně použitelné. Aby bylo možné se nadále rozvíjet, vše vyžaduje dlouhodobý trénink a testování. Výchozím bodem tedy může být výcvik těchto systémů s nezaujatými daty, která jsou aktivně pod kontrolou, o což se například snaží firma Microsoft, která vyvíjí nástroj automaticky identifikující předpojatost v řadě AI algoritmů.
Tváří v tvář rychlému technologickému vývoji v oblasti umělé inteligence a kontextu globální politiky, kde stále více zemí investuje velké množství do této oblasti, musí EU jednat tak, aby zavčas podchytila a řešila její výzvy, a zminimalizovala jakékoliv hrozby. S cílem podpořit rozvoj umělé inteligence a řešit potenciálně vysoká rizika, která představuje pro bezpečnost a základní práva, Evropská komise předložila jak návrh regulačního rámce pro AI, tak koordinovaný plán.
Tři vzájemně související právní iniciativy navržené Komisí pomohou učinit z Evropy bezpečné a inovativní prostředí pro rozvoj umělé inteligence.
- Evropský právní rámec pro AI k řešení základních práv a bezpečnostních rizik specifických pro systémy AI
- Pravidla EU pro řešení otázek odpovědnosti souvisejících s novými technologiemi, včetně systémů umělé inteligence (poslední čtvrtletí 2021 - první čtvrtletí 2022)
- Revize odvětvových bezpečnostních právních předpisů (např. Nařízení o strojních zařízeních, směrnice o obecné bezpečnosti výrobků, druhé čtvrtletí 2021)
Další klíčovou součástí strategie Evropské komise v oblasti AI je maximalizace zdrojů a koordinace investic. Prostřednictvím programů Digitální Evropa a Horizont Evropa plánuje Komise investovat 1 miliardu EUR ročně. Zároveň chce zmobilizovat další investice ze soukromého sektoru a členských států, aby do roku 2030 dosáhl tento sektor ročního objemu investic 20 miliard EUR. Přístup k vysoce kvalitním datům je dalším zásadním faktorem při budování vysoce výkonných a robustních systémů AI. Správnou infrastrukturu pro budování těchto systémů poskytují iniciativy, jako je například strategie EU v oblasti kybernetické bezpečnosti, zákon o digitálních službách a zákon o digitálních trzích či zákon o správě dat.
Avšak tyto regulační rámce a plány mají svá omezení, jelikož nyní slouží pouze jako vodítko k uchopení umělé inteligence. Stejně jako v případě GDPR zavedených v roce 2018, bude záležet na rozhodnutí jednotlivých členských států EU, jak tyto regulace implementují. Zároveň některá ustanovení nejsou plně a jednoznačně definována. Například ustanovení proti „podprahovým technikám, které přesahují vědomí člověka, aby výrazně ovlivnilo jeho chování“ způsobem, který by mohl způsobit psychickou újmu. Zde se primárně jedná o otázku, zda to platí i pro zpravodajské kanály sociálních médií a cílenou reklamu?
Musíme si tedy uvědomit, že přes úspěchy umělé inteligence jsou její systémy velice křehké a potenciální hrozby mohou nastat kdykoli. Zejména při nasazování umělé inteligence v oblastech, kde často dělá důležitá rozhodnutí s prominentním dopadem na bezpečnost a blahobyt člověka, jsou potenciální rizika zneužití vyšší a je třeba je pečlivě zvážit a případně efektivně minimalizovat.