Ste v sejni sobi. Četrtletni rezultati so dobri. Toda potem se oglasi pravni svetovalec:
"Govoriti moramo o orodjih umetne inteligence v operacijah. Nova uredba EU bo začela veljati prihodnje leto - in zdaj sploh ne vemo, kaj uporabljamo."
Se vam zdi znano?
Akt EU o umetni inteligenci ni problem prihodnosti. Je naslednja uredba GDPR, le da tokrat ne gre za zasebnost, temveč za nadzor.
Nadzor nad tem, katere sisteme umetne inteligence lahko zgradite, kupite ali vgradite. Nadzor nad tem, kdo je odgovoren, če gre kaj narobe. In nadzor nad tem, kako dokumentirate, spremljate in dokazujete, da igrate po pravilih.
Tako kot je GDPR podjetja prisilila k ponovnemu razmisleku o podatkih, vas bo ta zakon prisilil k ponovnemu razmisleku o načinu sprejemanja odločitev o umetni inteligenci - v oddelkih IT, pravnih, operativnih, produktnih in upravnem odboru.
Toda dobra novica je, da se z zgodnjim ukrepanjem ne boste le izognili globam. Pridobili boste jasnost delovanja, uskladitev tveganj in celo zaupanje trga.
Na kaj se zakon dejansko nanaša
Nemško zagonsko podjetje s področja medicinske tehnologije je predstavilo funkcijo umetne inteligence za diagnostiko. Je le del izdelka - dokler ni označena kot z visokim tveganjem. v skladu z aktom EU o umetni inteligenci.
Zdaj se od ustanovitelja pričakuje, da prikaže dokumentacijo o nadzoru tveganja, beleženju, nadzoru in skladnosti... hitro.
Takšna je realnost. Zakon o umetni inteligenci se ne nanaša na programsko opremo. Gre za odgovornost.kaj počne vaš sistem in . kakšno vlogo imate. pri njegovi uporabi ali distribuciji.
⚖️ Štiri stopnje tveganja
Nesprejemljivo
Popolnoma prepovedano. Zajema družbeno točkovanje, javno prepoznavanje obrazov, zaznavanje čustev pri delu in še več.
Visoko tvegani
Dovoljeno s strogim nadzorom. Pomislite na medicinsko diagnostiko, orodja za zaposlovanje, finančno ocenjevanje.
Tveganje preglednosti
Uporabljate jo lahko, vendar morate uporabnikom povedati, da sodelujejo z umetno inteligenco. Velja za klepetalne robote, sintetične medije itd.
Minimalno tveganje
Brez obveznosti. Velja za sisteme z majhnim vplivom, kot so filtri za neželeno pošto ali pregledovalniki slovnice z umetno inteligenco.
🧩 Štiri vloge, štirje sklopi dolžnosti
Ponudnik
Sistem ste zgradili ali prodali. Odgovorni ste za skladnost, dokumentacijo, nadzor tveganja in spremljanje po dajanju na trg.
Primer: Francosko podjetje, ki ponuja orodje za zaposlovanje na podlagi umetne inteligence po vsej Evropi.
Uporabnik
Sistem uporabljate v svojih dejavnostih. Zagotoviti morate nadzor, preglednost in notranje kontrole.
Primer: Primer: Trgovec na drobno, ki uporablja klepetalnega robota z umetno inteligenco za avtomatizacijo storitev za stranke.
Uvoznik
Umetno inteligenco, ki ni iz EU, pripeljete v EU. Pred vstopom na trg morate preveriti skladnost ponudnika.
Primer: Nizozemsko podjetje uvozi ameriški analitični model za lokalne bolnišnice.
Distributer
Orodja umetne inteligence ponujate drugim. Če odkrijete težave s skladnostjo, morate ukrepati.
Primer: Prodajalec IT, ki strankam prodaja rešitve umetne inteligence tretjih oseb.
Vaša prva poteza?
Načrtujte vsako orodje umetne inteligence, ki se ga dotakne vaše podjetje. Označite vlogo, ki jo imate v vsakem od njih, in določite stopnjo tveganja.
Tako se začne skladnost.
Vaša časovna os v preprostih izrazih
O časovnici zakona EU o umetni inteligenci razmišljajte kot o časovnem načrtu projekta in ne le kot o pravnem odštevanju. Čim prej začnete, tem lažje boste nadzorovali izid. Če boste predolgo odlašali, se boste odzivali pod pritiskom.
Tukaj je opisano, kaj je pomembno in kdaj:
📅 avgust 2024
Zakon je v veljavi. Že zdaj ste na delu, čeprav nekatere določbe še niso začele veljati.
📅 februar 2025
Začnejo se uporabljati začetne splošne določbe. To je pravi trenutek, da ocenite, kako izpostavljeni ste GPAI - zlasti če se zanašate na velike zunanje modele.
📅 avgust 2025
Začnejo veljati posebna pravila GPAI. To pomeni obveznosti glede preglednosti, zaščitne ukrepe za avtorske pravice in obvezno izmenjavo informacij z nadaljnjimi uporabniki.
Če uporabljate orodja, kot so OpenAI, Claude ali odprtokodni programi LLM, to velja tudi za vas.
📅 avgust 2026
Večina temeljnih zahtev postane izvršljiva, zlasti za sisteme z visokim tveganjem. Vzpostaviti morate upravljanje: razvrščanje tveganj, dokumentacijo, človeški nadzor, beleženje in spremljanje po dajanju na trg.
📅 avgust 2027
Pričakuje se popolna uvedba, vključno z novimi pravili za GPAI s sistemskim tveganjem in vsemi zaostalimi standardi. Regulatorji pričakujejo, da boste do te točke uporabljali zrel model upravljanja UI - pripravljenost ne bo več neobvezna.
Kje začeti zdaj
Ni vam treba vsega storiti naenkrat, vendar morate začeti. Osredotočite se na:
- Izdelava popisa umetne inteligence
- Opredelitev sistemov z visokim tveganjem
- Dodeljevanje vlog in lastništvo nadzora
Z vsakim četrtletjem zgodnjega ukrepanja pridobite čas, nadzor in verodostojnost. Če boste čakali predolgo, boste ob začetku izvrševanja morali nadoknaditi zamujeno.
Kaj je prepovedano in kaj samo težko
Špansko zagonsko podjetje v javnih prostorih namesti prepoznavanje obrazov - ne da bi se zavedalo, da je to zdaj prepovedano v skladu z Člen 5 akta EU o umetni inteligenci. Ko regulativni organi posredujejo, je že prepozno.
Globe so hitre, prav tako pa tudi škoda, ki jo utrpi ugled.
Logistično podjetje pa svojo umetno inteligenco za optimizacijo poti uvršča med zelo tvegane. Da, je zapletena, vendar z dokumentiranim nadzorom, čistimi podatki in notranjim beleženjem opravi predhodno oceno brez večjih težav.
To je meja, ki jo določa zakon.
❌ Nekateri primeri uporabe umetne inteligence so prepovedani - brez izjem
- sistemi socialnega točkovanja s strani vlad
- Prepoznavanje obraza iz spleta
- zaznavanje čustev v šolah ali na delovnem mestu
- biometrična identifikacija v realnem času na javnih mestih, razen pod zelo omejenimi pogoji
- Prediktivna policijska dejavnost na podlagi profiliranja
Ti sistemi niso tvegani. So nezakoniti. In izvrševanje se začne zgodaj.
V nasprotju s tem, sistemi z visokim tveganjem so dovoljeni, vendar regulirani.. V to kategorijo spadajo orodja, kot so programska oprema za pregledovanje življenjepisov, platforme za izobraževalno testiranje, medicinska diagnostika in umetna inteligenca za ocenjevanje kreditov.
Ti sistemi morajo izpolnjevati stroge zahteve, ki vključujejo:
- Dokumentirano upravljanje tveganj
- Človeški nadzor v zanki
- Visokokakovostni podatki za usposabljanje
- Beleženje in sledljivost
- Jasna tehnična dokumentacija
- Stalno spremljanje po dajanju na trg
Ena kategorija zahteva popolno ustavitev. Druga zahteva operativno zrelost.
Za izpolnjevanje pravil o visokem tveganju ne potrebujete popolnosti - potrebujete lastništvo, strukturo in postopek. Začnite zgodaj, postopno nadaljujte in skladnost bo postala obvladljiva.
GPAI brez šumov: Kaj morate storiti zdaj
Splošno uporabna umetna inteligenca ni le vprašanje velike tehnologije. Če vaše ekipe uporabljajo orodja, kot so ChatGPT, Claude ali Gemini, ste v območju uporabe - in zdaj na udaru.
V skladu z aktom EU o umetni inteligenci, Ponudniki GPAI objavljati povzetke podatkov o usposabljanju, vzdrževati tehnično dokumentacijo, upoštevati pravila o avtorskih pravicah in posredovati ključne podatke naprej.
Če njihovi modeli predstavljajo "sistemsko tveganje", veljajo dodatni zaščitni ukrepi.
Toda če ste uporaba teh orodij v vašem podjetju, vam ne bo treba ničesar storiti. Od vas se pričakuje, da:
- Potrdite skladnost prodajalca
- Zahtevajte dokumentacijo - vzorčne kartice, povzetke podatkov, predvideno uporabo
- Notranji primeri uporabe dnevnika
- Po potrebi izvajajte človeški nadzor.
Spletna stran Kodeks ravnanja GPAI (julij 2025) vam daje jasno prednost. Uporabite ga za usmerjanje povpraševanj prodajalcev in oblikovanje notranje zbirke podatkov - tudi če niste visoko tvegani.
Začnite preprosto: navedite prejeta orodja, ponudnike in dokumente. To je vaše izhodišče.
Kadar je hitrost pomembna, podjetja pogosto angažirajo začasni vodja za skladnost umetne inteligence da bi zgradili ta temelj in vse hitro uskladili.
Sestavite svoj inventar umetne inteligence in razvrstite tveganja
Predstavljajte si: ste v sejni sobi in nekdo vas vpraša,
"Koliko sistemov umetne inteligence uporabljamo in kakšna je njihova stopnja tveganja?" Če se vaš odgovor začne s premolkom, niste edini. Vendar tudi niste pripravljeni.
Tukaj je opisano, kako hitro in jasno prevzeti nadzor.
Najprej ustvarite preprosto tabelo s petimi stolpci:
Sistem | Lastnik | Stopnja tveganja | Vloga | Dokumentacija
I. Začnite z očitnimi stvarmi: klepetalnimi roboti, mehanizmi za določanje cen, pregledovalniki življenjepisov, modeli za ocenjevanje.
II. Za vsakega od njih označite stopnja tveganja: prepovedano, visoko tvegano, samo pregledno ali minimalno.
III. Določite svoje vloga: Ali ste ga (ponudnik) zgradili vi? ste ga uporabili (razpečevalec)? ga pridobili od zunaj (uvoznik/distributer)?
IV. Zberite, kar že imate: pogodbe, vzorčne kartice, dokumentacijo prodajalcev, notranje ocene.
Že po nekaj delovnih seansah se megla razblini.
Pred: Brez popisa, nejasna ugibanja, nepovezane ekipe.
Po spletni strani: 15 orodij, 3 sistemi z visokim tveganjem, jasno določeni lastniki, vidne vrzeli v dokumentaciji.
Tako se začne pripravljenost - ne s teorijo, temveč s skupnim pogledom na to, kaj je resnično in kaj je treba izboljšati.
Jasnost vloge in minimalni nadzor, ki deluje
Upravljanje umetne inteligence v vašem podjetju brez opredeljenih vlog je kot upravljanje proizvodne hale brez vodij izmene. V dobrih dneh lahko deluje, vendar se pokvari, ko gredo stvari narobe.
Obravnavajte ga kot delovno skupino za umetno inteligenco. Vsaka ekipa ima jasno določeno vlogo, in čeprav ni nujno, da je postavitev težka, mora biti načrtna.
Spletna stran Upravni odbor opredeljuje nagnjenost k tveganju in četrtletno preverja napredek. Njihova naloga je, da se sprašujejo: "Ali je to naš trenutek GDPR in ali resno zagotavljamo sredstva zanj?"
Spletna stran CIO ali glavni podatkovni direktor je odgovoren za popis umetne inteligence, nadzor nad prodajalci in delovne postopke za zagotavljanje skladnosti. Vedo, kateri modeli so v uporabi in kdo je odgovoren za vsakega od njih.
Izdelek in delovanje poskrbite za človeške zaščitne ukrepe - zagotovite, da so rezervni postopki in testiranje v realnem svetu del delovnega procesa. Njihovo vprašanje: "Kaj se zgodi, ko umetna inteligenca ob dveh zjutraj pade na stran?"
Ekipe za podatkovno znanost in ML upravljanje tehnične dokumentacije, zaznavanje odstopanj modela in nadzor različic. Pozorni so na eno ključno težavo: "Ali še vedno uporabljamo model, ki smo ga odobrili prejšnji mesec?"
Pravo in skladnost spodbujanje politike, ocen in pripravljenosti na revizijo. Njihova vloga je preprosta, a ključna: "Ali lahko pokažemo dokumentacijo, preden nas zanjo prosijo?"
Kateri najmanjši niz kontrolnih elementov dejansko deluje?
- En skupni inventar umetne inteligence
- Opredeljen človeški nadzor za sisteme z visokim tveganjem
- Aktivno beleženje
- Tehnična dokumentacija v gibanju
- Standardni kontrolni seznam prodajalca
Naj bo lahka. Naj bo v živo. To je tisto, kar preživi revizijo.
Kdaj je treba poklicati začasno vodstvo
Ko se roki pospešijo ali obseg preseže zmožnosti ekipe, podjetja vključijo začasni vodja skladnosti AI - nekdo, ki ustvarja inventar, usklajuje prodajalce in vodi dokumentacijo naprej, ne da bi pri tem ekipe za izdelke spravljal iz tira.
CE Interim je specializiran za zagotavljanje 30- do 90-dnevnih mandatov tem operaterjem, ki so osredotočeni, vpeti in pripravljeni na izvedbo.
Globe niso bistvo - izognite se jim z načrtovanjem
Da, kazni so visoke: do 35 milijonov evrov ali 7% svetovnega prometa za najhujše kršitve. Toda to ni tisto, kar bi vas moralo držati pokonci.
Resnično tveganje? Posli se zavlačujejo zaradi vrzeli v skladnosti. Izdelki, ki so blokirani ob začetku prodaje. Klici vlagateljev, ki jih onemogočajo vprašanja o upravljanju.
Poznejše odpravljanje teh težav je dražje - v denarju, času in ugledu.
Najcenejša pot je do skladnost načrtovanja od samega začetka., ne pa da ga naknadno privijačite.
30-dnevni načrt pripravljenosti
Prišli ste do sem - zdaj vam povemo, kako se premakniti, hitro in pametno.
1. teden: Zemljevid pokrajine
Ustvarite inventar umetne inteligence. Dodelite lastnike. Označite vse, kar se dotika občutljivih podatkov, strank ali področij skladnosti.
Kontrolna točka: 80% orodij, ki so bila kartirana, rdeče zastave so se pojavile.
2. teden: Sodelujte s prodajalci
Zahtevajte dokumentacijo - vzorčne kartice, povzetke usposabljanja, izjave o skladnosti. Kot vodilo uporabite Kodeks ravnanja GPAI.
Kontrolna točka: Dokumenti so zbrani, delovni tokovi pripravljeni.
3. teden: Tlačni preizkus
Izvedite simulacijo primera uporabe z visokim tveganjem. Preizkusite postopke, ki jih izvaja človek v zanki, in preverite, kako se sprožijo varnostni ukrepi in dnevniki.
Kontrolna točka: Ugotovljene vrzeli, načrtovani popravki.
4. teden: Uskladite vodenje
Seznanite odbor s tveganji, vrzelmi in proračunskimi vprašanji. Predstavite jasen 90-dnevni časovni načrt, povezan z izdelki in cilji skladnosti.
Kontrolna točka: Načrt odobren, zagon zagotovljen.
Ko so ekipe preobremenjene, je začasni vodja programa lahko izvede celoten sprint, ga gladko preda in zapusti ter za seboj pusti strukturo.
Zaključek - Od tveganja do pripravljenosti
To ni le še en predpis. Gre za ponastavitev načina, kako podjetja ravnajo z umetno inteligenco - na področju tehnologije, izdelkov, skladnosti in vodenja.
Zakon o umetni inteligenci ne zahteva popolnosti. Zahteva lastništvo. Za prepoznavnost. Za pripravljenost.
Začnite s pregledom, kaj že uporabljate. Določite, kdo je odgovoren. Prikažite, kako se tveganje obvladuje.
Začnite z majhnimi količinami. Bodite resnični. Od tu naprej pridobivajte zagon.
Začnite ta teden - in bodite v prednosti.