AI Act, nový legislatívny rámec EÚ, zásadne mení spôsob, akým firmy pristupujú k nasadzovaniu umelej inteligencie. Jeho najdôležitejším pilierom je rozdelenie AI systémov podľa úrovne rizika, ktoré predstavujú pre ľudí a spoločnosť.
Tento článok vám pomôže pochopiť, čo jednotlivé úrovne znamenajú, koho sa týkajú a aké povinnosti z nich vyplývajú pre firmy.
🟥 Úroveň 1: Neprijateľné riziko
Zakázané systémy – porušujú základné hodnoty spoločnosti
Charakteristika: Ide o systémy, ktoré sú v rozpore s hodnotami EÚ, ako sú ľudská dôstojnosť, súkromie a sloboda. Tieto technológie majú vysoký potenciál na zneužitie a môžu ohroziť demokratické princípy. Ich použitie je zakázané bez výnimky.
Kto do toho spadá: Firmy a organizácie, ktoré vyvíjajú alebo plánujú používať AI nástroje na sledovanie, kontrolu správania alebo masovú manipuláciu.
Príklady:
– Sociálne skórovanie občanov podľa správania, financií či pôvodu.
– Biometrická identifikácia (napr. rozpoznávanie tváre) na verejných miestach v reálnom čase bez legitímneho dôvodu a súhlasu.
– Systémy manipulujúce správanie ľudí cez zraniteľnosti (napr. u detí alebo chorých).
Povinnosti:
Zákaz vývoja, distribúcie aj používania týchto systémov.
Audit existujúcich AI riešení, aby sa vylúčilo, že firma nepoužíva zakázanú technológiu.
🟧 Úroveň 2: Vysoké riziko
Systémy s vplyvom na práva, zdravie a rozhodovanie o ľuďoch
Charakteristika: Tieto AI nástroje ovplyvňujú rozhodnutia, ktoré majú zásadný dopad na životy ľudí – napríklad zamestnanie, vzdelanie, financie alebo zdravie. Sú povolené, ale podliehajú prísnej regulácii počas celého životného cyklu – od návrhu až po prevádzku.
Kto do toho spadá:
– Vývojári a poskytovatelia AI systémov na nábor, školenie, úverové hodnotenie, diagnostiku, riadenie infraštruktúry, automatizované rozhodovanie vo verejnej správe.
– Firmy, ktoré tieto systémy používajú v praxi (banky, nemocnice, školy, úrady, veľké korporácie).
Príklady:
– AI, ktorá predvyberá kandidátov na pracovné pohovory.
– AI pri rozhodovaní o poskytnutí hypotéky.
– Diagnostické AI nástroje v zdravotníctve.
– AI, ktorá riadi bezpečnostné prvky v doprave či energetike.
Povinnosti:
– Registrácia systému ako vysokorizikového.
– Zabezpečenie transparentnosti a auditovateľnosti algoritmov.
– Overenie kvality dát – žiadne diskriminačné vstupy.
– Ľudský dohľad – AI nemôže rozhodovať bez možnosti zásahu človeka.
– Záznamy o výkone AI systému, pravidelné monitorovanie.
– Informovanie osôb, ktoré AI systém ovplyvňuje.
🟨 Úroveň 3: Obmedzené riziko
Systémy, ktoré komunikujú s ľuďmi – potrebná transparentnosť
Charakteristika: Tieto AI systémy neprijímajú kritické rozhodnutia, ale bežne komunikujú alebo interagujú s ľuďmi. Aj keď ich dopad nie je zásadný, zákon vyžaduje, aby ich používanie bolo zrozumiteľné a férové.
Kto do toho spadá: Firmy používajúce AI nástroje v zákazníckej podpore, marketingu, obsahu alebo automatizácii komunikácie. Najčastejšie ide o chatboty, hlasových asistentov, generatívne AI modely (obrázky, texty, videá).
Príklady:
– AI chatbot na webe alebo v aplikácii.
– Generovanie textov pomocou ChatGPT.
– Vytváranie deepfake videí na marketingové účely.
Povinnosti:
– Informovať používateľa, že komunikuje s AI, ak to nie je zrejmé.
– Označiť výstupy generované AI – napr. “vytvorené umelou inteligenciou”.
– Pri deepfakoch zabezpečiť ich označenie poskytovateľom aj používateľom.
– Školenie zamestnancov, ktorí AI používajú, v oblasti základnej AI gramotnosti.
🟩 Úroveň 4: Minimálne riziko
Bežné AI nástroje – nízke regulačné požiadavky
Charakteristika: Ide o nástroje každodennej produktivity, ktoré neovplyvňujú dôležité rozhodnutia ani ľudské práva. Nevyžadujú špeciálnu reguláciu, no AI Act odporúča, aby boli používané zodpovedne a vedome.
Kto do toho spadá: Každá firma, ktorá používa AI na interné úlohy – generovanie textu, preklad, sumarizáciu, vizualizáciu dát či pomoc pri analýze.
Príklady:
– ChatGPT na tvorbu článkov alebo nápadov.
– Microsoft Copilot v Exceli a Worde.
– AI nástroje na analýzu dát alebo preklady textu.
Povinnosti:
– Žiadne povinné regulácie podľa AI Actu, ak systém nezasahuje do práv alebo rozhodovania o ľuďoch.
– Odporúča sa sledovať vývoj AI systémov a viesť prehľad, kde a ako sú vo firme nasadené.
Záver: Poznať riziko znamená predchádzať problémom
AI Act prináša prehľadný rámec, ktorý vám pomôže rozpoznať riziko a nastaviť firemné procesy tak, aby ste boli pripravení na budúce pravidlá. Nie je to zákaz technológií – je to návod, ako s nimi narábať bezpečne, zodpovedne a dôveryhodne.
📬 Zaujímajú vás ďalšie novinky o AI a legislatíve? Prihláste sa na náš newsletter, kde vám pravidelne prinášame aktuality a tipy zo sveta umelej inteligencie.
Rizikové úrovne podľa AI Act: Ako ich rozpoznať a čo znamenajú pre vašu firmu
AI Act, nový legislatívny rámec EÚ, zásadne mení spôsob, akým firmy pristupujú k nasadzovaniu umelej inteligencie. Jeho najdôležitejším pilierom je rozdelenie AI systémov podľa úrovne rizika, ktoré predstavujú pre ľudí a spoločnosť.
Tento článok vám pomôže pochopiť, čo jednotlivé úrovne znamenajú, koho sa týkajú a aké povinnosti z nich vyplývajú pre firmy.
🟥 Úroveň 1: Neprijateľné riziko
Zakázané systémy – porušujú základné hodnoty spoločnosti
Charakteristika:
Ide o systémy, ktoré sú v rozpore s hodnotami EÚ, ako sú ľudská dôstojnosť, súkromie a sloboda. Tieto technológie majú vysoký potenciál na zneužitie a môžu ohroziť demokratické princípy. Ich použitie je zakázané bez výnimky.
Kto do toho spadá:
Firmy a organizácie, ktoré vyvíjajú alebo plánujú používať AI nástroje na sledovanie, kontrolu správania alebo masovú manipuláciu.
Príklady:
– Sociálne skórovanie občanov podľa správania, financií či pôvodu.
– Biometrická identifikácia (napr. rozpoznávanie tváre) na verejných miestach v reálnom čase bez legitímneho dôvodu a súhlasu.
– Systémy manipulujúce správanie ľudí cez zraniteľnosti (napr. u detí alebo chorých).
🟧 Úroveň 2: Vysoké riziko
Systémy s vplyvom na práva, zdravie a rozhodovanie o ľuďoch
Charakteristika:
Tieto AI nástroje ovplyvňujú rozhodnutia, ktoré majú zásadný dopad na životy ľudí – napríklad zamestnanie, vzdelanie, financie alebo zdravie.
Sú povolené, ale podliehajú prísnej regulácii počas celého životného cyklu – od návrhu až po prevádzku.
Kto do toho spadá:
– Vývojári a poskytovatelia AI systémov na nábor, školenie, úverové hodnotenie, diagnostiku, riadenie infraštruktúry, automatizované rozhodovanie vo verejnej správe.
– Firmy, ktoré tieto systémy používajú v praxi (banky, nemocnice, školy, úrady, veľké korporácie).
Príklady:
– AI, ktorá predvyberá kandidátov na pracovné pohovory.
– AI pri rozhodovaní o poskytnutí hypotéky.
– Diagnostické AI nástroje v zdravotníctve.
– AI, ktorá riadi bezpečnostné prvky v doprave či energetike.
🟨 Úroveň 3: Obmedzené riziko
Systémy, ktoré komunikujú s ľuďmi – potrebná transparentnosť
Charakteristika:
Tieto AI systémy neprijímajú kritické rozhodnutia, ale bežne komunikujú alebo interagujú s ľuďmi. Aj keď ich dopad nie je zásadný, zákon vyžaduje, aby ich používanie bolo zrozumiteľné a férové.
Kto do toho spadá:
Firmy používajúce AI nástroje v zákazníckej podpore, marketingu, obsahu alebo automatizácii komunikácie.
Najčastejšie ide o chatboty, hlasových asistentov, generatívne AI modely (obrázky, texty, videá).
Príklady:
– AI chatbot na webe alebo v aplikácii.
– Generovanie textov pomocou ChatGPT.
– Vytváranie deepfake videí na marketingové účely.
🟩 Úroveň 4: Minimálne riziko
Bežné AI nástroje – nízke regulačné požiadavky
Charakteristika:
Ide o nástroje každodennej produktivity, ktoré neovplyvňujú dôležité rozhodnutia ani ľudské práva. Nevyžadujú špeciálnu reguláciu, no AI Act odporúča, aby boli používané zodpovedne a vedome.
Kto do toho spadá:
Každá firma, ktorá používa AI na interné úlohy – generovanie textu, preklad, sumarizáciu, vizualizáciu dát či pomoc pri analýze.
Príklady:
– ChatGPT na tvorbu článkov alebo nápadov.
– Microsoft Copilot v Exceli a Worde.
– AI nástroje na analýzu dát alebo preklady textu.
Záver: Poznať riziko znamená predchádzať problémom
AI Act prináša prehľadný rámec, ktorý vám pomôže rozpoznať riziko a nastaviť firemné procesy tak, aby ste boli pripravení na budúce pravidlá.
Nie je to zákaz technológií – je to návod, ako s nimi narábať bezpečne, zodpovedne a dôveryhodne.
📬 Zaujímajú vás ďalšie novinky o AI a legislatíve?
Prihláste sa na náš newsletter, kde vám pravidelne prinášame aktuality a tipy zo sveta umelej inteligencie.
AI newsletter
AI zlyháva pri skutočných pracovných úlohách
30 januára, 2026AI doplnky vo VS Code kradli zdrojový kód
27 januára, 2026Prečo technologickí giganti investujú do AI nástrojov pre školy?
21 januára, 2026