EU Artificial Intelligence Act (regulace umělé inteligence)
Regulation (EU) 2024/1689 of the European Parliament
- Nařízení (EU) 2024/1689, známé jako Artificial Intelligence Act
- První komplexní rámec EU pro regulaci AI, založený na čtyřstupňovém hodnocení rizik a na přímé účinnosti v členských státech. Cílem je zajistit bezpečnou, nediskriminační a důvěryhodnou AI a současně podpořit inovace. (Digitální strategie EU)
- Platnost
- Zveřejněno v Úředním věstníku 12 července 2024.
- Nabylo platnosti 1 srpna 2024 (20 dní po zveřejnění).
- Postupná použitelnost ustanovení
- Kapitoly I–II (definice, správa): od 2 února 2025
- Kapitola III/4, V, VII, XII (+ čl. 78): od 2 srpna 2025
- Většina povinností pro vysoce rizikové systémy: od 2 srpna 2026
- Dodatečné povinnosti pro systémové GPAI: od 2 srpna 2027
- Kde text najdete
- Úřední věstník L 1689, 12 7 2024 (vícejazyčné znění, včetně češtiny).
- nepřijatelné riziko – systémy, které ohrožují bezpečnost, práva či důstojnost lidí; zcela zakázané (např. státní sociální skórování, prediktivní policejní profilování, real-time biometrické sledování ve veřejném prostoru)
- sociální skórování osob, prediktivní policejní profilování
- masový scraping obličejů, real-time rozpoznávání tváří ve veřejném prostoru
- emocionální rozpoznávání a biometrická kategorizace ve škole/práci
- systémy manipulující chováním či zneužívající zranitelnosti uživatelů
- vysoké riziko – AI v kritické infrastruktuře, zdravotnictví, vzdělávání, zaměstnání, prosazování práva aj.; povinné řízení rizik, technická dokumentace, registrace v databázi EU a trvalý lidský dohled
- biometrická identifikace/kategorizace (mimo pouhé ověření totožnosti)
- AI v kritické infrastruktuře, dopravě, energetice
- vzdělávací přijímačky, proctoring, hodnocení studia
- nábor, hodnocení výkonu, propouštění; úvěrové a pojistné skórování
- prosazování práva (profilování, analýza důkazů, odhad recidivy)
- vízové/azylové řízení, hraniční kontroly, podpora soudních rozhodnutí
- omezené riziko – systémy, které interagují s uživatelem nebo generují obsah (chatboti, deepfakes) a nejsou vysokorizikové; nutnost jasně informovat uživatele a označovat syntetická média
- chatboti, hlasoví asistenti (uživatel musí vědět, že mluví s AI)
- generátory textu, obrázků a deepfake videí (povinné označení)
- minimální riziko – běžné aplikace typu spam-filtr či doporučovací algoritmy; právní povinnosti nejsou, lze dodržovat dobrovolné kodexy
- spam-filtry, doporučovače e-shopů/streamovacích služeb, AI v hráčských enginech; zmiňuje shrnutí Komise, v textu zákona pro ně nejsou zvláštní povinnosti
Výjimky
- obrana a národní bezpečnost – systémy určené výlučně k vojenským či bezpečnostním úkolům členských států spadají z působnosti nařízení úplně ven
- vědecký výzkum a vývoj – AI vyvíjená / užívaná pouze pro vědecké účely je vyňata, dokud není uvedena na trh ani nasazena v praxi
- osobní, neprofesionální použití – když systém používá fyzická osoba jen pro vlastní potřebu, AI Act se neuplatní
- free/open-source software – kód vydaný pod svobodnou licencí nepodléhá pravidlům, pokud nejde o zakázanou či vysokorizikovou funkci
- real-time dálková biometrická identifikace na veřejnosti – obecně zakázaná, ale policejní orgán ji smí použít výjimečně:
- pátrání po pohřešovaných či obětech únosů
- odvrácení hrozícího teroristického útoku
- identifikace pachatele zvlášť závažného trestného činu
vždy po předchozím soudním nebo nezávislém povolení a s přísnými limity
- regulační sandboxy a reálné testování – články 57–60 dovolují dočasně zjemnit povinnosti (např. dokumentaci) v kontrolovaném prostředí pod dohledem příslušného úřadu
- úlevy pro SME a start-upy – čl. 62 poskytuje zjednodušené šablony posouzení shody a nižší poplatky, aby menší firmy zvládly pravidla ekonomicky
Pokuty
Kromě finančních sankcí mohou orgány nařídit stažení systému z trhu či jeho pozastavení.
- Zakázané praktiky (čl. 5) – pokuta až 35 mil. EUR nebo 7 % celosvětového ročního obratu, podle toho, co je vyšší.
- Porušení povinností (vysoké riziko, GPAI, transparentnost atd.) – až 15 mil. EUR nebo 3 % obratu.
- Nepravdivé či neúplné údaje úřadům – až 7,5 mil. EUR nebo 1 % obratu.
- SME/start-upy – vždy se uplatní nižší z obou stropů (absolutní částka × procento).
Co by měla obsahovat interní směrnice pro AI
- rozsah a účel – kde a proč se AI smí používat
- klasifikace rizik – podle AI Act (zakázané, vysoké, omezené, minimální)
- zásady – etika, lidský dohled, transparentnost, ochrana osobních údajů, bezpečnost (railslibraries.org)
- pravidla pro vstup dat – žádné citlivé ani smluvně chráněné údaje bez výslovného povolení. (railslibraries.org, AI Guardian)
- role a odpovědnosti – AI/Privacy Officer, vývojáři, uživatelé, audit
- procesy
- předimplementační posouzení dopadů (risk & impact assessment)
- evidence všech AI nástrojů v organizaci
- schvalování nákupů/externích API
- kontinuální monitoring výstupů a reportování incidentů
- školení a osvěta – povinné kurzy AI gramotnosti, zejména pro uživatele vysokorizikových systémů
- revize směrnice – minimálně 1× ročně nebo při změně legislativy
Praktický postup zavedení
- inventarizujte stávající AI a určete rizikovost
- doplňte chybějící kontrolní mechanismy (lidský dohled, logging)
- nastavte interní approval workflow pro nové AI projekty
- vypracujte školení, která pokryjí GDPR + AI Act
- sledujte termíny AI Act a plánujte compliance roadmapu dva roky dopředu
Tipy na zdroje šablon
- bezplatné vzory interních AI politik (např. Originality.ai, NTEN, PSMJ) (originality.ai, PSMJNTEN)
- finální text EU AI Act a implementační harmonogram