Akt o umělé inteligenci vešel v platnost
Evropská unie (EU) dne 12. července 2024 zveřejnila Nařízení (EU) č. 2024/1689 (Akt o umělé inteligenci), které se tak stalo první komplexní právní úpravou umělé inteligence (AI) na světě. Cílem Nařízení je stanovit jasné povinnosti pro ochranu zdraví a základních lidských práv a pro zajištění bezpečnosti a souladu s hodnotami EU.
Nařízení je dostupné v různých jazykových verzích na EUR-Lex.
Koho se Nařízení týká
Nařízení se vztahuje na všechny poskytovatele uvádějící systémy AI do provozu nebo na trh, subjekty, které zavádějí systémy AI, dovozce a distributory systémů AI, výrobce produktů a další dotčené osoby. Nařízení se uplatní bez ohledu na to, zda jsou poskytovatelé či zavádějící subjekty usazeny v EU nebo ve třetí zemi, pokud se výstup systémů AI používá v rámci EU.
Platnost a účinnost Nařízení
Nařízení vstupuje v platnost 1. srpna 2024, avšak použitelnost jednotlivých částí s konkrétními povinnostmi je stanovena postupně během několika následujících let.
Oblasti úpravy
Nařízení upravuje zejména:
- Rizika, která vznikají používáním systémů AI;
- Zakázané postupy v oblasti AI, které představují nepřijatelné riziko;
- Požadavky na vývoj a zavádění vysoce rizikových systémů AI;
- Požadavky (zejména) transparentnosti pro obecné systémy AI (GPAI);
- Požadavek na posouzení shody před vstupem daného AI systému na EU trh;
- Strukturu řízení na evropské a národní úrovni.
Klasifikace systémů AI podle rizika
Nařízení stanovuje požadavky na systémy AI na základě úrovně hrozby, kterou představují pro základní lidská práva, zdraví či bezpečnost.
Vysoce rizikové AI systémy: hlavní povinnosti
- Registrace ve veřejném registru EU pro vysoce rizikové AI systémy.
- Povinnost zhodnotit dopad takových systémů na základní práva a svobody subjektů.
- Transparentnost včetně pokynů pro použití a technických specifikací.
- Zavedení systémů pro interní řízení rizik a kvality, včetně správy dat.
- Povinnost zavést ve vybraných případech a formách lidský dohled.
- Zajištění robustnosti a kybernetické bezpečnosti, pravidelné testování a monitoring.
Pravidla pro obecné modely AI (GPAI)
Na obecné modely AI se uplatní mírnější pravidla pro jejich vývoj a následné používání. Zavedeny jsou zejména požadavky na transparentnost, vedení a aktualizaci příslušné dokumentace nebo zajištění souladu s autorským právem EU.
V rámci obecných modelů AI je vymezena specifická kategorie těchto modelů na základě jejich výpočetního výkonu – obecné modely AI se systémovým rizikem. Pokud by takový model selhal nebo byl zneužit, mohlo by to mít negativní dopady na různé oblasti, jako je zdravotnictví, doprava, finance nebo veřejná správa. To je důvod, proč jsou na tyto modely kladeny přísnější požadavky v oblasti kybernetické bezpečnosti, oznamování incidentů nebo provádění hodnocení a testování modelů AI.
Evropský úřad pro umělou inteligenci (AI Office)
Evropská komise zřídila na základě Nařízení nový regulační orgán na úrovni EU, Evropský úřad pro umělou inteligenci, který bude působit v rámci Generálního ředitelství pro komunikační sítě, obsah a technologie (DG CNECT) Evropské komise.
Úřad pro umělou inteligenci bude monitorovat, dohlížet a prosazovat požadavky Nařízení týkající se obecných modelů AI (GPAI) ve všech 27 členských státech EU. To zahrnuje analýzu nepředvídaných systémových rizik vyplývajících z vývoje a zavádění GPAI, jakož i provádění hodnocení modelů a vyšetřování případů možného porušení Nařízení. S cílem usnadnit poskytovatelům GPAI dodržování Nařízení a zohlednit jejich perspektivy bude Úřad vypracovávat dobrovolné kodexy správné praxe.