Ste v zasadacej miestnosti. Štvrťročné výsledky vyzerajú dobre. Ale potom sa ozve právnik:
"Musíme hovoriť o nástrojoch umelej inteligencie v prevádzke. Nové nariadenie EÚ začne platiť budúci rok - a teraz ani nevieme, čo používame."
Znie vám to povedome?
Akt EÚ o umelej inteligencii nie je problémom budúcnosti. Je to ďalšie nariadenie GDPR - len tentoraz nejde o ochranu osobných údajov, ale o kontrolu.
Kontrola nad tým, aké systémy umelej inteligencie vytvoríte, kúpite alebo zabudujete. Kontrola nad tým, kto je zodpovedný, keď sa niečo pokazí. A kontrolu nad tým, ako dokumentujete, monitorujete a dokazujete, že hráte podľa pravidiel.
Tak ako GDPR prinútilo spoločnosti prehodnotiť údaje, tento zákon vás prinúti prehodnotiť spôsob rozhodovania o umelej inteligencii - v IT, právnom oddelení, oddelení prevádzky, produktov a v predstavenstve.
Dobrá správa však je, že ak začnete konať včas, nielenže sa vyhnete pokutám. Získate prevádzkovú prehľadnosť, zosúladenie rizík a dokonca aj dôveru trhu.
Na čo sa zákon skutočne vzťahuje
Nemecký startup v oblasti zdravotníckych technológií uvádza na trh funkciu umelej inteligencie pre diagnostiku. Je to len súčasť produktu - kým nie je označená ako vysokorizikové podľa Aktu EÚ o umelej inteligencii.
Teraz sa od zakladateľa očakáva, že preukáže kontroly rizík, protokolovanie, dohľad a dokumentáciu o dodržiavaní... rýchlo.
Taká je realita. Zákon o umelej inteligencii sa netýka softvéru. Je o zodpovednosti.čo robí váš systém a akú úlohu zohrávate pri jeho používaní alebo distribúcii.
⚖️ Štyri úrovne rizika
Neprijateľné
Úplne zakázané. Zahŕňa sociálne skórovanie, rozpoznávanie tváre na verejnosti, detekciu emócií v práci a ďalšie.
Vysoko rizikové
Povolené s prísnymi kontrolami. Premýšľajte o lekárskej diagnostike, nástrojoch na prijímanie zamestnancov, finančnom hodnotení.
Riziko transparentnosti
Môžete ju používať, ale používatelia musia byť informovaní, že komunikujú s umelou inteligenciou. Platí pre chatboty, syntetické médiá atď.
Minimálne riziko
Žiadne záväzky. Vzťahuje sa na systémy s nízkym dopadom, ako sú spamové filtre alebo kontroly gramatiky s umelou inteligenciou.
🧩 Štyri úlohy, štyri súbory povinností
Poskytovateľ
Systém ste postavili alebo predávate. Ste zodpovední za súlad, dokumentáciu, kontrolu rizík a monitorovanie po uvedení na trh.
Príklad: Francúzska firma ponúka nástroj na prijímanie zamestnancov na základe umelej inteligencie v celej Európe.
Deployer
Systém používate vo svojich vlastných prevádzkach. Musíte zabezpečiť dohľad, transparentnosť a vnútorné kontroly.
Príklad: Príklad: Maloobchodný predajca používa chatbota s umelou inteligenciou na automatizáciu služieb zákazníkom.
Dovozca
Do EÚ priveziete umelú inteligenciu z krajín mimo EÚ. Pred vstupom na trh musíte skontrolovať súlad poskytovateľa.
Príklad: Holandská firma dováža americký analytický model pre miestne nemocnice.
Distribútor
Ponúkaš nástroje umelej inteligencie ostatným. Ak zistíte problém s dodržiavaním predpisov, musíte konať.
Príklad: Predajca IT predáva klientom riešenia AI tretích strán.
Váš prvý krok?
Zmapujte každý nástroj umelej inteligencie, ktorého sa vaša spoločnosť dotkne. Označte úlohu, ktorú v každom z nich zohrávate, a určte úroveň rizika.
Takto sa začína dodržiavanie predpisov.
Vaša časová os v jednoduchých pojmoch
O časovom harmonograme Aktu EÚ o umelej inteligencii uvažujte ako o časovom harmonograme projektu, nielen ako o právnom odpočítavaní. Čím skôr sa posuniete, tým ľahšie môžete kontrolovať výsledok. Ak budete meškať príliš dlho, budete reagovať pod tlakom.
Tu sa dozviete, čo je dôležité a kedy:
📅 august 2024
Zákon je v platnosti. Už ste v hre, aj keď niektoré ustanovenia ešte nezačali platiť.
📅 február 2025
Začnú sa uplatňovať pôvodné všeobecné ustanovenia. Toto je ten správny okamih na posúdenie toho, ako ste vystavení GPAI - najmä ak sa spoliehate na veľké externé modely.
📅 august 2025
Účinnosť nadobúdajú špecifické pravidlá GPAI. To znamená povinnosť transparentnosti, záruky autorských práv a povinné zdieľanie informácií s následnými používateľmi.
Ak používate nástroje ako OpenAI, Claude alebo open-source LLM, platí to aj pre vás.
📅 august 2026
Väčšina základných požiadaviek sa stáva vynútiteľnou, najmä v prípade vysoko rizikových systémov. Budete potrebovať zavedené riadenie: klasifikáciu rizík, dokumentáciu, ľudský dohľad, protokolovanie a monitorovanie po uvedení na trh.
📅 august 2027
Očakáva sa úplné zavedenie vrátane nových pravidiel pre GPAI so systémovým rizikom a všetkých zaostávajúcich štandardov. Regulačné orgány očakávajú, že v tomto okamihu už budete prevádzkovať vyspelý model riadenia UI - pripravenosť nebude voliteľná.
Kde začať teraz
Nemusíte urobiť všetko naraz, ale musíte začať. Zamerajte sa na:
- Vytvorenie inventára umelej inteligencie
- Identifikácia vysoko rizikových systémov
- Prideľovanie úloh a vlastníctvo kontroly
Každým štvrťrokom, v ktorom konáte včas, získavate čas, kontrolu a dôveryhodnosť. Ak budete čakať príliš dlho, budete musieť doháňať, keď sa začne vymáhanie.
Čo je zakázané a čo je len ťažké
Španielsky startup inštaluje rozpoznávanie tváre vo verejných priestoroch - bez toho, aby si uvedomil, že je teraz zakázané podľa Článok 5 Aktu EÚ o umelej inteligencii. V čase, keď regulačné orgány zasiahnu, je už neskoro.
Pokuty prichádzajú rýchlo, rovnako ako poškodenie dobrého mena.
Logistická firma zatiaľ klasifikuje svoju umelú inteligenciu pre optimalizáciu trasy ako vysoko rizikovú. Áno, je zložitá, ale vďaka zdokumentovanému dohľadu, čistým údajom a internému zaznamenávaniu prešla predbežným hodnotením bez väčších problémov.
Toto je hranica, ktorú zákon stanovuje.
❌ Niektoré prípady použitia AI sú zakázané - bez výnimky
- Sociálne bodovacie systémy vlád
- Rozpoznávanie tváre vyškrabané z webu
- Detekcia emócií v školách alebo na pracoviskách
- Biometrické identifikátory v reálnom čase na verejnosti, s výnimkou veľmi obmedzených podmienok
- Prediktívna policajná činnosť založená na profilovaní
Tieto systémy nie sú rizikové. Sú nezákonné. A ich presadzovanie sa začína skoro.
Naopak, vysoko rizikové systémy sú povolené, ale regulované.. Do tejto kategórie patria nástroje ako softvér na skríning životopisov, platformy na testovanie v oblasti vzdelávania, lekárska diagnostika a umelá inteligencia na hodnotenie úverov.
Tieto systémy musia spĺňať prísne požiadavky vrátane:
- Zdokumentované riadenie rizík
- Dohľad človeka v slučke
- Vysokokvalitné školiace údaje
- Zaznamenávanie a vysledovateľnosť
- Jasná technická dokumentácia
- Priebežné monitorovanie po uvedení na trh
Jedna kategória vyžaduje úplné zastavenie. Druhá vyžaduje prevádzkovú vyspelosť.
Na splnenie pravidiel vysokého rizika nepotrebujete dokonalosť - potrebujete vlastníctvo, štruktúru a proces. Začnite včas, postupujte postupne a dodržiavanie predpisov sa stane zvládnuteľným.
GPAI bez humbugu: Čo musíte urobiť teraz
Všeobecná umelá inteligencia nie je len záležitosťou veľkých technológií. Ak vaše tímy používajú nástroje ako ChatGPT, Claude alebo Gemini, ste v dosahu - a teraz na háku.
Podľa Aktu EÚ o umelej inteligencii, Poskytovatelia GPAI musí zverejňovať súhrny údajov o školeniach, viesť technickú dokumentáciu, dodržiavať pravidlá autorských práv a odovzdávať kľúčové údaje ďalej.
Ak ich modely predstavujú "systémové riziko", uplatňujú sa dodatočné ochranné opatrenia.
Ale ak ste pomocou tieto nástroje vo vašej firme, nie ste z toho vonku. Očakáva sa od vás, že:
- Potvrdenie súladu s predpismi predajcu
- Žiadosť o dokumentáciu - vzorové karty, súhrny údajov, zamýšľané použitie
- Interné prípady použitia protokolu
- V prípade potreby uplatniť ľudský dohľad
Stránka Kódex postupov GPAI (júl 2025) vám poskytne jasný náskok. Použite ho na usmernenie dopytov od dodávateľov a na vytvorenie svojho interného zoznamu - aj keď nie ste vysoko rizikový.
Začnite jednoducho: uveďte zoznam prijatých nástrojov, poskytovateľov a dokumentov. To je vaša základná úroveň.
Keď záleží na rýchlosti, firmy často využívajú dočasný vedúci oddelenia pre dodržiavanie predpisov v oblasti umelej inteligencie vybudovať tento základ a rýchlo zladiť všetkých.
Vytvorte si inventár umelej inteligencie a klasifikujte riziká
Predstavte si to takto: ste v zasadacej miestnosti a niekto sa vás opýta,
"Koľko systémov umelej inteligencie prevádzkujeme a aká je úroveň ich rizika?" Ak sa vaša odpoveď začína pauzou, nie ste sami. Ale tiež nie ste pripravení.
Tu je návod, ako prevziať kontrolu - rýchlo a jasne.
Začnite vytvorením jednoduchej tabuľky s piatimi stĺpcami:
Systém | Vlastník | Úroveň rizika | Úloha | Dokumentácia
I. Začnite s tým, čo je zrejmé: chatboty, cenotvorné nástroje, skenery životopisov, skórovacie modely.
II. Pre každý z nich označte úroveň rizika: zakázané, vysoko rizikové, len transparentné alebo minimálne.
III. Identifikujte svoje úloha: Vytvorili ste ho (poskytovateľ)? Použili ste ho (deployer)? Získali ste ho z externého zdroja (dovozca/distribútor)?
IV. Zozbierajte to, čo už máte: zmluvy, vzorové karty, dokumenty dodávateľov, interné hodnotenia.
Už po niekoľkých pracovných sedeniach sa hmla začne rozptyľovať.
Pred: Žiadny súpis, nejasné odhady, nesúvisiace tímy.
Po stránke: 15 nástrojov zmapovaných, 3 vysoko rizikové systémy označené, jasní vlastníci, viditeľné nedostatky v dokumentácii.
Takto sa začína pripravenosť - nie teóriou, ale spoločným pohľadom na to, čo je reálne a na čom treba pracovať.
Jasnosť úloh a minimálne fungujúce kontrolné mechanizmy
Prevádzka AI vo vašej firme bez definovaných úloh je ako riadenie výrobnej haly bez vedúcich zmien. Môže to fungovať v dobrých dňoch - ale keď sa niečo pokazí, pokazí sa to.
Pristupujte k tomu ako k pracovnej skupine pre umelú inteligenciu. Každý tím má jasnú úlohu, a hoci nastavenie nemusí byť ťažké, musí byť zámerné.
Stránka Board definuje ochotu podstupovať riziká a štvrťročne kontroluje pokrok. Ich úlohou je pýtať sa: "Je toto naša chvíľa GDPR - a máme na ňu vážne zdroje?"
Stránka CIO alebo Chief Data Officer vlastní inventár UI, dohľad nad dodávateľmi a pracovné postupy na zabezpečenie súladu. Vie, ktoré modely sa používajú a kto je za ne zodpovedný.
Výrobok a prevádzka zachovať ľudské záruky - zabezpečiť, aby súčasťou pracovného postupu boli záložné procesy a testovanie v reálnom prostredí. Ich otázka: "Čo sa stane, keď sa umelá inteligencia o druhej hodine ráno vykloní?"
Tímy dátovej vedy a ML spravovať technickú dokumentáciu, zisťovať posun modelov a kontrolovať verzie. Stále si dávajú pozor na jeden kľúčový problém: "Stále používame model, ktorý sme schválili minulý mesiac?"
Právne otázky a dodržiavanie predpisov riadiť politiku, hodnotenia a pripravenosť na audit. Ich úloha je jednoduchá, ale veľmi dôležitá: "Môžeme ukázať dokumentáciu - skôr, ako nás o ňu požiadajú?"
Aký najmenší zásobník ovládacích prvkov skutočne funguje?
- Jeden spoločný inventár AI
- Definovaný ľudský dohľad nad vysoko rizikovými systémami
- Aktívne zaznamenávanie
- Technický súbor v pohybe
- Štandardný kontrolný zoznam predajcu
Zachovajte ľahkosť. Nech je to živé. To je to, čo prežije audit.
Kedy je potrebné zavolať dočasné vedenie
Keď sa termíny zrýchľujú alebo rozsah presahuje možnosti tímu, spoločnosti si prizývajú dočasný vedúci oddelenia dodržiavania súladu s predpismi v oblasti umelej inteligencie - niekto, kto vytvára inventár, zosúlaďuje dodávateľov a posúva dokumentáciu vpred bez toho, aby vyrušil produktové tímy z cesty.
CE Interim sa špecializuje na umiestňovanie týchto operátorov s 30- až 90-dňovými mandátmi - sústredených, usadených a pripravených na výkon.
Pokuty nie sú cieľom - vyhnite sa im zámerne
Áno, pokuty sú vysoké: až 35 miliónov eur alebo 7% celosvetového obratu za najhoršie porušenia. Ale to nie je to, čo by vám malo nedávať spať.
Skutočné riziko? Oneskorenie transakcií kvôli nedostatkom v dodržiavaní predpisov. Produkty zablokované pri uvedení na trh. Investorské výzvy zmarené kvôli otázkam týkajúcim sa riadenia.
Náprava týchto problémov neskôr stojí viac - peňazí, času aj reputácie.
Najlacnejšou cestou je dodržiavanie dizajnu od začiatku, a nie ho dodatočne pripevniť.
30-dňový plán pripravenosti
Dostali ste sa až sem - teraz vám poradíme, ako postupovať rýchlo a inteligentne.
1. týždeň: Zmapujte krajinu
Vytvorte si inventár umelej inteligencie. Priraďte vlastníkov. Označte všetko, čo sa dotýka citlivých údajov, zákazníkov alebo oblastí dodržiavania predpisov.
Kontrolný bod: 80% zmapovaných nástrojov, objavili sa červené vlajky.
2. týždeň: Zapojte svojich predajcov
Vyžiadajte si dokumentáciu - vzorové karty, súhrny školení, vyhlásenia o zhode. Ako pomôcku použite Kódex postupov GPAI.
Kontrolný bod: Dokumenty zozbierané, pracovné postupy navrhnuté.
3. týždeň: Tlaková skúška
Vykonajte simuláciu vysoko rizikového prípadu použitia. Otestujte postupy "človek v slučke" a skontrolujte, ako sa spúšťajú záložné riešenia a protokoly.
Kontrolný bod: Zistené nedostatky, plánované opravy.
4. týždeň: Zosúladenie vedenia
Informujte predstavenstvo o rizikách, nedostatkoch a rozpočtových požiadavkách. Predstavte jasný 90-dňový plán spojený s cieľmi produktu a súladu s predpismi.
Kontrolný bod: Plán schválený, dynamika zabezpečená.
Keď sú tímy vyťažené, je dočasný vedúci programu dokáže celý tento šprint odbehnúť, čisto odovzdať a odísť - a zanechať za sebou štruktúru.
Záver - Od rizika k pripravenosti
Nejde len o ďalšie nariadenie. Je to resetovacie tlačidlo pre to, ako spoločnosti zaobchádzajú s AI - v oblasti technológií, produktov, dodržiavania predpisov a vedenia.
Zákon o umelej inteligencii nepožaduje dokonalosť. Požaduje vlastníctvo. O zviditeľnenie. O pripravenosť.
Začnite mapovaním toho, čo už používate. Definujte, kto je za to zodpovedný. Ukážte, ako je riziko kontrolované.
Začnite v malom. Udržujte si reálny prístup. Odtiaľ budujte dynamiku.
Začnite tento týždeň - a udržte si náskok.