Rizikové úrovne podľa AI Act: Ako ich rozpoznať a čo znamenajú pre vašu firmu

  • Home
  • Rizikové úrovne podľa AI Act: Ako ich rozpoznať a čo znamenajú pre vašu firmu
Pyramída rizikových úrovní AI systémov podľa AI Act na pozadí vlajky Európskej únie

Rizikové úrovne podľa AI Act: Ako ich rozpoznať a čo znamenajú pre vašu firmu

22 apríla, 2025 Slovensko.ai
47 Videní

AI Act, nový legislatívny rámec EÚ, zásadne mení spôsob, akým firmy pristupujú k nasadzovaniu umelej inteligencie. Jeho najdôležitejším pilierom je rozdelenie AI systémov podľa úrovne rizika, ktoré predstavujú pre ľudí a spoločnosť.

Tento článok vám pomôže pochopiť, čo jednotlivé úrovne znamenajú, koho sa týkajú a aké povinnosti z nich vyplývajú pre firmy.

🟥 Úroveň 1: Neprijateľné riziko

Zakázané systémy – porušujú základné hodnoty spoločnosti

Charakteristika:
Ide o systémy, ktoré sú v rozpore s hodnotami EÚ, ako sú ľudská dôstojnosť, súkromie a sloboda. Tieto technológie majú vysoký potenciál na zneužitie a môžu ohroziť demokratické princípy. Ich použitie je zakázané bez výnimky.

Kto do toho spadá:
Firmy a organizácie, ktoré vyvíjajú alebo plánujú používať AI nástroje na sledovanie, kontrolu správania alebo masovú manipuláciu.

Príklady:

 – Sociálne skórovanie občanov podľa správania, financií či pôvodu.

– Biometrická identifikácia (napr. rozpoznávanie tváre) na verejných miestach v reálnom čase bez legitímneho dôvodu a súhlasu.

– Systémy manipulujúce správanie ľudí cez zraniteľnosti (napr. u detí alebo chorých).

Povinnosti:

  • Zákaz vývoja, distribúcie aj používania týchto systémov.

  • Audit existujúcich AI riešení, aby sa vylúčilo, že firma nepoužíva zakázanú technológiu.

🟧 Úroveň 2: Vysoké riziko

Systémy s vplyvom na práva, zdravie a rozhodovanie o ľuďoch

Charakteristika:
Tieto AI nástroje ovplyvňujú rozhodnutia, ktoré majú zásadný dopad na životy ľudí – napríklad zamestnanie, vzdelanie, financie alebo zdravie.
Sú povolené, ale podliehajú prísnej regulácii počas celého životného cyklu – od návrhu až po prevádzku.

Kto do toho spadá:

– Vývojári a poskytovatelia AI systémov na nábor, školenie, úverové hodnotenie, diagnostiku, riadenie infraštruktúry, automatizované rozhodovanie vo verejnej správe.

– Firmy, ktoré tieto systémy používajú v praxi (banky, nemocnice, školy, úrady, veľké korporácie).

Príklady:

– AI, ktorá predvyberá kandidátov na pracovné pohovory.

– AI pri rozhodovaní o poskytnutí hypotéky.

– Diagnostické AI nástroje v zdravotníctve.

– AI, ktorá riadi bezpečnostné prvky v doprave či energetike.

Povinnosti:

– Registrácia systému ako vysokorizikového.

– Zabezpečenie transparentnosti a auditovateľnosti algoritmov.

– Overenie kvality dát – žiadne diskriminačné vstupy.

– Ľudský dohľad – AI nemôže rozhodovať bez možnosti zásahu človeka.

– Záznamy o výkone AI systému, pravidelné monitorovanie.

– Informovanie osôb, ktoré AI systém ovplyvňuje.

🟨 Úroveň 3: Obmedzené riziko

Systémy, ktoré komunikujú s ľuďmi – potrebná transparentnosť

Charakteristika:
Tieto AI systémy neprijímajú kritické rozhodnutia, ale bežne komunikujú alebo interagujú s ľuďmi. Aj keď ich dopad nie je zásadný, zákon vyžaduje, aby ich používanie bolo zrozumiteľné a férové.

Kto do toho spadá:
Firmy používajúce AI nástroje v zákazníckej podpore, marketingu, obsahu alebo automatizácii komunikácie.
Najčastejšie ide o chatboty, hlasových asistentov, generatívne AI modely (obrázky, texty, videá).

Príklady:

– AI chatbot na webe alebo v aplikácii.

– Generovanie textov pomocou ChatGPT.

– Vytváranie deepfake videí na marketingové účely.

Povinnosti:

– Informovať používateľa, že komunikuje s AI, ak to nie je zrejmé.

– Označiť výstupy generované AI – napr. “vytvorené umelou inteligenciou”.

– Pri deepfakoch zabezpečiť ich označenie poskytovateľom aj používateľom.

– Školenie zamestnancov, ktorí AI používajú, v oblasti základnej AI gramotnosti.

🟩 Úroveň 4: Minimálne riziko

Bežné AI nástroje – nízke regulačné požiadavky

Charakteristika:
Ide o nástroje každodennej produktivity, ktoré neovplyvňujú dôležité rozhodnutia ani ľudské práva. Nevyžadujú špeciálnu reguláciu, no AI Act odporúča, aby boli používané zodpovedne a vedome.

Kto do toho spadá:
Každá firma, ktorá používa AI na interné úlohy – generovanie textu, preklad, sumarizáciu, vizualizáciu dát či pomoc pri analýze.

Príklady:

– ChatGPT na tvorbu článkov alebo nápadov.

– Microsoft Copilot v Exceli a Worde.

– AI nástroje na analýzu dát alebo preklady textu.

Povinnosti:

– Žiadne povinné regulácie podľa AI Actu, ak systém nezasahuje do práv alebo rozhodovania o ľuďoch.

– Odporúča sa sledovať vývoj AI systémov a viesť prehľad, kde a ako sú vo firme nasadené.

Záver: Poznať riziko znamená predchádzať problémom

AI Act prináša prehľadný rámec, ktorý vám pomôže rozpoznať riziko a nastaviť firemné procesy tak, aby ste boli pripravení na budúce pravidlá.
Nie je to zákaz technológií – je to návod, ako s nimi narábať bezpečne, zodpovedne a dôveryhodne.

📬 Zaujímajú vás ďalšie novinky o AI a legislatíve?
Prihláste sa na náš newsletter, kde vám pravidelne prinášame aktuality a tipy zo sveta umelej inteligencie.

leave a comment

NOVÁ GENERÁCIA AI SERVEROV