Zákon EU o umělé inteligenci pro vedoucí pracovníky podniků: Od rizika k připravenosti

Jste v zasedací místnosti. Čtvrtletní výsledky vypadají dobře. Ale pak se ozve právní oddělení:

"Musíme mluvit o nástrojích umělé inteligence v provozu. Nové nařízení EU začne platit příští rok - a my teď ani nevíme, co používáme."

Zní vám to povědomě?

Akt EU o umělé inteligenci není problémem budoucnosti. Je to další GDPR - jen tentokrát nejde o ochranu osobních údajů, ale o kontrolu.

Kontrola nad tím, jaké systémy umělé inteligence vytvoříte, koupíte nebo zabudujete. Kontrola nad tím, kdo je zodpovědný, když se něco pokazí. A kontrolu nad tím, jak dokumentujete, monitorujete a prokazujete, že hrajete podle pravidel.

Stejně jako GDPR donutilo firmy přehodnotit data, tento zákon vás donutí přehodnotit způsob rozhodování o umělé inteligenci - v IT, právní oblasti, provozu, produktu i ve správní radě.

Ale tady je dobrá zpráva: pokud budete jednat včas, nejenže se vyhnete pokutám. Získáte provozní přehlednost, sladění rizik a dokonce i důvěru trhu.

Na co se zákon skutečně vztahuje

Německý medtech startup spouští funkci AI pro diagnostiku. Je to jen součást produktu - dokud není označena jako vysoce rizikové podle aktu EU o umělé inteligenci.

Nyní se od zakladatele očekává, že prokáže kontrolu rizik, protokolování, dohled a dokumentaci o dodržování předpisů... rychle.

Taková je realita. Zákon o umělé inteligenci se netýká softwaru. Je o odpovědnosti.co váš systém dělá a jakou roli hrajete při jeho používání nebo distribuci.

⚖️ Čtyři úrovně rizika

Nepřijatelné
Plně zakázáno. Zahrnuje sociální skórování, rozpoznávání obličejů na veřejnosti, detekci emocí v práci a další.

Vysoce rizikové stránky
Povoleno s přísnými kontrolami. Přemýšlejte o lékařské diagnostice, nástrojích pro najímání zaměstnanců, finančním hodnocení.

Riziko transparentnosti
Můžete ji používat, ale uživatelé musí být informováni, že komunikují s umělou inteligencí. Platí pro chatboty, syntetická média atd.

Minimální riziko
Žádné závazky. Platí pro systémy s malým dopadem, jako jsou spamové filtry nebo kontroly gramatiky s umělou inteligencí.

🧩 Čtyři role, čtyři sady povinností

Poskytovatel
Systém jste postavili nebo prodáváte. Jste zodpovědní za shodu s předpisy, dokumentaci, kontrolu rizik a monitorování po uvedení na trh.

Příklad: Francouzská firma nabízí nástroj pro nábor zaměstnanců založený na umělé inteligenci v celé Evropě.

Deployer
Systém používáte ve svých vlastních operacích. Musíte zajistit dohled, transparentnost a vnitřní kontrolu.

Příklad: Příklad: Maloobchodní prodejce, který používá chatbota s umělou inteligencí k automatizaci obsluhy zákazníků.

Dovozce
Do EU přivážíte umělou inteligenci ze zemí mimo EU. Před vstupem na trh musíte zkontrolovat, zda poskytovatel splňuje požadavky.

Příklad: Nizozemská firma dováží americký analytický model pro místní nemocnice.

Distributor
Nabízíte ostatním nástroje umělé inteligence. Pokud zjistíte problém s dodržováním předpisů, musíte jednat.

Příklad: Příklad: Prodejce IT prodává klientům řešení AI třetích stran.

Váš první krok?
Zmapujte každý nástroj umělé inteligence, kterého se vaše společnost dotkne. Označte roli, kterou v každém z nich hrajete, a určete úroveň rizika.
Takto začíná dodržování předpisů.

Vaše časová osa v jednoduchých termínech

Berte časový plán zákona o umělé inteligenci jako harmonogram projektu, ne jen jako právní odpočet. Čím dříve se pohnete, tím snadněji budete mít výsledek pod kontrolou. Pokud budete otálet příliš dlouho, budete reagovat pod tlakem.

Zde je uvedeno, na čem záleží - a kdy:

📅 srpen 2024

Zákon je v platnosti. Již jste ve službě, i když některá ustanovení ještě nezačala platit.

📅 únor 2025

Začínají platit původní obecná ustanovení. To je ten správný okamžik pro posouzení, jak jste vystaveni GPAI - zejména pokud se spoléháte na velké externí modely.

📅 srpen 2025

Vstupují v platnost specifická pravidla GPAI. To znamená povinnost transparentnosti, záruky autorských práv a povinné sdílení informací s následnými uživateli.
Pokud používáte nástroje jako OpenAI, Claude nebo open-source LLM, platí to i pro vás.

📅 srpen 2026

Většina základních požadavků se stává vymahatelnou, zejména u vysoce rizikových systémů. Budete potřebovat zavést správu: klasifikaci rizik, dokumentaci, lidský dohled, protokolování a monitorování po uvedení na trh.

📅 srpen 2027

Očekává se úplné zavedení, včetně nových pravidel pro GPAI se systémovým rizikem a případných zaostávajících standardů. V tomto okamžiku regulátoři očekávají, že budete provozovat vyspělý model řízení UI - připravenost nebude volitelná.

Kde začít nyní

Nemusíte dělat všechno najednou, ale musíte začít. Zaměřte se na:

  • Vytvoření inventáře umělé inteligence
  • Identifikace vysoce rizikových systémů
  • Přiřazení rolí a vlastnictví kontroly

Každé čtvrtletí, kdy jednáte včas, vám přináší čas, kontrolu a důvěryhodnost. Pokud budete čekat příliš dlouho, budete muset dohánět, až se začne vymáhat.

Co je zakázáno vs. co je jen těžké

Španělský startup instaluje na veřejných prostranstvích zařízení na rozpoznávání obličeje - aniž by si uvědomil, že je nyní zakázáno. Článek 5 aktu EU o umělé inteligenci. Než regulační orgány zasáhnou, je už pozdě.

Pokuty přicházejí rychle, stejně jako poškození pověsti.

Logistická firma zatím klasifikuje svou umělou inteligenci pro optimalizaci tras jako vysoce rizikovou. Ano, je složitá, ale díky zdokumentovanému dohledu, čistým datům a internímu protokolování projde předběžným hodnocením bez větších problémů.

To je hranice, kterou zákon vymezuje.

Některé případy použití umělé inteligence jsou zakázány - bez výjimky.

  • Vládní systémy sociálního bodování
  • Rozpoznávání obličeje z webu
  • Detekce emocí ve školách nebo na pracovištích
  • Biometrická identifikace v reálném čase na veřejnosti, s výjimkou velmi úzce vymezených podmínek.
  • Prediktivní policejní práce založená na profilování

Tyto systémy nejsou rizikové. Jsou nelegální. A jejich vymáhání začíná brzy.

Naproti tomu, vysoce rizikové systémy jsou povoleny, ale regulovány.. Do této kategorie spadají nástroje jako software pro screening životopisů, platformy pro testování ve vzdělávání, lékařská diagnostika a umělá inteligence pro hodnocení úvěrů.

Tyto systémy musí splňovat přísné požadavky, včetně:

  • Zdokumentované řízení rizik
  • Dohled člověka ve smyčce
  • Vysoce kvalitní tréninková data
  • Protokolování a sledovatelnost
  • Přehledná technická dokumentace
  • Průběžné sledování po uvedení na trh

Jedna kategorie vyžaduje úplné zastavení. Druhá vyžaduje provozní vyspělost.

K dodržení pravidel pro vysoce rizikové společnosti nepotřebujete dokonalost - potřebujete vlastnictví, strukturu a proces. Začněte včas, postupujte postupně a dodržování předpisů bude zvládnutelné.

GPAI bez humbuku: Co musíte udělat hned teď

Umělá inteligence pro všeobecné použití není jen záležitostí velkých technologií. Pokud vaše týmy používají nástroje jako ChatGPT, Claude nebo Gemini, jste v oblasti působnosti - a nyní na háku.

Podle aktu EU o umělé inteligenci, Poskytovatelé GPAI musí zveřejňovat souhrny školicích dat, vést technickou dokumentaci, dodržovat pravidla autorského práva a předávat klíčové údaje dále.

Pokud jejich modely představují "systémové riziko", platí pro ně dodatečná ochranná opatření.

Ale pokud jste pomocí tyto nástroje ve vaší firmě, nejste z obliga. Očekává se od vás, že:

  • Potvrzení shody s předpisy prodejce
  • Požadavek na dokumentaci - vzorové karty, souhrny údajů, zamýšlené použití
  • Interní případy použití protokolu
  • V případě potřeby uplatňujte lidský dohled

Na stránkách Kodex GPAI (červenec 2025) vám dává jasný náskok. Použijte ji jako vodítko pro poptávání dodavatelů a vytvořte si interní seznam - i když nejste vysoce rizikoví.

Začněte jednoduše: uveďte seznam nástrojů, poskytovatelů a obdržených dokumentů. To je vaše základní úroveň.

Pokud záleží na rychlosti, firmy často využívají dočasný vedoucí pracovník pro dodržování předpisů v oblasti umělé inteligence vybudovat tento základ a rychle všechny sladit.

Vytvoření inventáře umělé inteligence a klasifikace rizik

Představte si to: jste v zasedací místnosti a někdo se vás zeptá,
"Kolik systémů umělé inteligence provozujeme a jaká je jejich rizikovost?" Pokud vaše odpověď začíná pauzou, nejste sami. Ale také nejste připraveni.

Zde je návod, jak převzít kontrolu - rychle a jasně.

Začněte vytvořením jednoduché tabulky s pěti sloupci:
Systém | Vlastník | Úroveň rizika | Role | Dokumentace

I. Začněte s tím, co je zřejmé: chatboty, cenovými systémy, screenery životopisů, scoringovými modely.

II. U každého z nich označte úroveň rizika: zakázané, vysoce rizikové, pouze transparentní nebo minimální.

III. Identifikujte své role: Postavili jste ho (poskytovatele)? Používáte ho (deployer)? Získali jste ji z externího zdroje (dovozce/distributor)?

IV. Shromážděte to, co již máte: smlouvy, vzorové karty, dokumenty dodavatelů, interní hodnocení.

Během několika pracovních sezení se mlha začne rozptylovat.

Před: Žádný soupis, nejasné odhady, nesourodé týmy.
Po: Zmapováno 15 nástrojů, označeny 3 vysoce rizikové systémy, jmenováni jasní vlastníci, viditelné nedostatky v dokumentaci.

Takto začíná připravenost - ne teorií, ale společným pohledem na to, co je skutečné a na čem je třeba zapracovat.

Jasné vymezení rolí a minimální fungující kontrolní mechanismy

Provozovat umělou inteligenci ve firmě bez definovaných rolí je jako řídit tovární halu bez vedoucích směn. V dobrých dnech to může fungovat - ale když se něco pokazí, tak se to pokazí.

Přistupujte k tomu jako k pracovní skupině pro umělou inteligenci. Každý tým má jasnou úlohu, a i když nastavení nemusí být náročné, musí být záměrné.

Na stránkách Tabule definuje ochotu podstupovat rizika a čtvrtletně kontroluje pokrok. Jejich úkolem je ptát se: "Nastal náš okamžik GDPR - a máme na něj vážně vyčleněné zdroje?"

Na stránkách CIO nebo Chief Data Officer vlastní inventář UI, dohled nad dodavateli a pracovní postupy pro zajištění shody. Ví, které modely se používají a kdo je za ně zodpovědný.

Výrobek a provoz zachovat lidská ochranná opatření - zajistit, aby součástí pracovního postupu byly záložní procesy a testování v reálném prostředí. Jejich otázka: "Co se stane, když umělá inteligence ve dvě hodiny ráno vybočí?"

Týmy datové vědy a ML spravovat technickou dokumentaci, detekci odklonu modelu a kontrolu verzí. Zůstávají ve střehu a věnují pozornost jednomu klíčovému problému: "Stále používáme model, který jsme schválili minulý měsíc?"

Právní předpisy a dodržování předpisů řídit politiku, hodnocení a připravenost na audit. Jejich úloha je jednoduchá, ale zásadní: "Můžeme předložit dokumentaci - dříve, než nás o ni požádají?"

Jaký nejmenší zásobník ovládacích prvků skutečně funguje?

  • Jeden sdílený inventář AI
  • Definovaný lidský dohled nad vysoce rizikovými systémy
  • Aktivní logování
  • Technická dokumentace v pohybu
  • Standardní kontrolní seznam prodejce

Udržujte ji lehkou. Ať je to živé. To je to, co přežije audit.

Kdy povolat dočasné vedení

Když se termíny zrychlují nebo když rozsah přesahuje možnosti týmu, společnosti zapojí do projektu odborníka. dočasný vedoucí pracovník pro dodržování předpisů v oblasti umělé inteligence - někdo, kdo vytváří inventář, slaďuje dodavatele a řídí dokumentaci, aniž by vyvedl z míry produktové týmy.

CE Interim se specializuje na umisťování těchto operátorů s mandáty na 30 až 90 dní - soustředěných, usazených a připravených k realizaci.

O pokuty nejde - vyhněte se jim záměrně

Ano, pokuty jsou vysoké: až 35 milionů eur nebo 7% celosvětového obratu za nejhorší porušení. Ale to není to, co by vás mělo držet vzhůru.

Skutečné riziko? Zpoždění obchodů kvůli nedostatkům v dodržování předpisů. Produkty zablokované při uvedení na trh. Investorské hovory ztroskotávají na otázkách týkajících se řízení.

Náprava těchto problémů později stojí více peněz, času i reputace.

Nejlevnější cestou je zajištění souladu s předpisy od samého počátku, nikoliv dodatečně přišroubovat.

30denní plán připravenosti

Dostali jste se až sem - nyní vám poradíme, jak se rychle a chytře přesunout.

1. týden: Zmapujte krajinu

Vytvořte si inventář umělé inteligence. Přiřaďte vlastníky. Označte vše, co se dotýká citlivých dat, zákazníků nebo oblastí dodržování předpisů.

Kontrolní bod: 80% zmapovaných nástrojů, objevily se červené vlajky.

2. týden: Zapojte své dodavatele

Vyžádejte si dokumentaci - vzorové karty, přehledy školení, prohlášení o shodě. Jako vodítko použijte Kodex GPAI.

Kontrolní bod: Dokumenty shromážděny, pracovní postupy navrženy.

3. týden: Tlaková zkouška

Proveďte simulaci vysoce rizikového případu použití. Otestujte postupy "člověk ve smyčce" a zkontrolujte, jak se spouští záložní řešení a protokoly.

Kontrolní bod: Zjištěné nedostatky, plánovaná oprava.

4. týden: Sladění vedení

Informujte správní radu o rizicích, nedostatcích a rozpočtových požadavcích. Představte jasný 90denní plán spojený s cíli produktu a souladu s předpisy.

Kontrolní bod: Plán schválen, hybnost zajištěna.

Když jsou týmy přetížené, je dočasný vedoucí programu může celý tento sprint dokončit, čistě předat a odejít - a zanechat za sebou strukturu.

Závěr - Od rizika k připravenosti

Nejde jen o další nařízení. Jde o resetovací tlačítko pro způsob, jakým společnosti nakládají s umělou inteligencí - v oblasti technologií, produktů, dodržování předpisů a vedení.

Zákon o umělé inteligenci nepožaduje dokonalost. Požaduje vlastnictví. O zviditelnění. O připravenost.

Začněte mapováním toho, co již používáte. Definujte, kdo je za to zodpovědný. Ukažte, jak je riziko řízeno.

Začněte v malém. Zůstaňte realističtí. Od toho se odvíjejte.
Začněte tento týden - a udržte si náskok.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Potřebujete dočasného vedoucího? Promluvme si