AI Act, nový legislatívny rámec EÚ, zásadne mení spôsob, akým firmy pristupujú k nasadzovaniu umelej inteligencie. Jeho najdôležitejším pilierom je rozdelenie AI systémov podľa úrovne rizika, ktoré predstavujú pre ľudí a spoločnosť.
Tento článok vám pomôže pochopiť, čo jednotlivé úrovne znamenajú, koho sa týkajú a aké povinnosti z nich vyplývajú pre firmy.
🟥 Úroveň 1: Neprijateľné riziko
Zakázané systémy – porušujú základné hodnoty spoločnosti
Charakteristika: Ide o systémy, ktoré sú v rozpore s hodnotami EÚ, ako sú ľudská dôstojnosť, súkromie a sloboda. Tieto technológie majú vysoký potenciál na zneužitie a môžu ohroziť demokratické princípy. Ich použitie je zakázané bez výnimky.
Kto do toho spadá: Firmy a organizácie, ktoré vyvíjajú alebo plánujú používať AI nástroje na sledovanie, kontrolu správania alebo masovú manipuláciu.
Príklady:
– Sociálne skórovanie občanov podľa správania, financií či pôvodu.
– Biometrická identifikácia (napr. rozpoznávanie tváre) na verejných miestach v reálnom čase bez legitímneho dôvodu a súhlasu.
– Systémy manipulujúce správanie ľudí cez zraniteľnosti (napr. u detí alebo chorých).
Povinnosti:
Zákaz vývoja, distribúcie aj používania týchto systémov.
Audit existujúcich AI riešení, aby sa vylúčilo, že firma nepoužíva zakázanú technológiu.
🟧 Úroveň 2: Vysoké riziko
Systémy s vplyvom na práva, zdravie a rozhodovanie o ľuďoch
Charakteristika: Tieto AI nástroje ovplyvňujú rozhodnutia, ktoré majú zásadný dopad na životy ľudí – napríklad zamestnanie, vzdelanie, financie alebo zdravie. Sú povolené, ale podliehajú prísnej regulácii počas celého životného cyklu – od návrhu až po prevádzku.
Kto do toho spadá:
– Vývojári a poskytovatelia AI systémov na nábor, školenie, úverové hodnotenie, diagnostiku, riadenie infraštruktúry, automatizované rozhodovanie vo verejnej správe.
– Firmy, ktoré tieto systémy používajú v praxi (banky, nemocnice, školy, úrady, veľké korporácie).
Príklady:
– AI, ktorá predvyberá kandidátov na pracovné pohovory.
– AI pri rozhodovaní o poskytnutí hypotéky.
– Diagnostické AI nástroje v zdravotníctve.
– AI, ktorá riadi bezpečnostné prvky v doprave či energetike.
Povinnosti:
– Registrácia systému ako vysokorizikového.
– Zabezpečenie transparentnosti a auditovateľnosti algoritmov.
– Overenie kvality dát – žiadne diskriminačné vstupy.
– Ľudský dohľad – AI nemôže rozhodovať bez možnosti zásahu človeka.
– Záznamy o výkone AI systému, pravidelné monitorovanie.
– Informovanie osôb, ktoré AI systém ovplyvňuje.
🟨 Úroveň 3: Obmedzené riziko
Systémy, ktoré komunikujú s ľuďmi – potrebná transparentnosť
Charakteristika: Tieto AI systémy neprijímajú kritické rozhodnutia, ale bežne komunikujú alebo interagujú s ľuďmi. Aj keď ich dopad nie je zásadný, zákon vyžaduje, aby ich používanie bolo zrozumiteľné a férové.
Kto do toho spadá: Firmy používajúce AI nástroje v zákazníckej podpore, marketingu, obsahu alebo automatizácii komunikácie. Najčastejšie ide o chatboty, hlasových asistentov, generatívne AI modely (obrázky, texty, videá).
Príklady:
– AI chatbot na webe alebo v aplikácii.
– Generovanie textov pomocou ChatGPT.
– Vytváranie deepfake videí na marketingové účely.
Povinnosti:
– Informovať používateľa, že komunikuje s AI, ak to nie je zrejmé.
– Označiť výstupy generované AI – napr. “vytvorené umelou inteligenciou”.
– Pri deepfakoch zabezpečiť ich označenie poskytovateľom aj používateľom.
– Školenie zamestnancov, ktorí AI používajú, v oblasti základnej AI gramotnosti.
🟩 Úroveň 4: Minimálne riziko
Bežné AI nástroje – nízke regulačné požiadavky
Charakteristika: Ide o nástroje každodennej produktivity, ktoré neovplyvňujú dôležité rozhodnutia ani ľudské práva. Nevyžadujú špeciálnu reguláciu, no AI Act odporúča, aby boli používané zodpovedne a vedome.
Kto do toho spadá: Každá firma, ktorá používa AI na interné úlohy – generovanie textu, preklad, sumarizáciu, vizualizáciu dát či pomoc pri analýze.
Príklady:
– ChatGPT na tvorbu článkov alebo nápadov.
– Microsoft Copilot v Exceli a Worde.
– AI nástroje na analýzu dát alebo preklady textu.
Povinnosti:
– Žiadne povinné regulácie podľa AI Actu, ak systém nezasahuje do práv alebo rozhodovania o ľuďoch.
– Odporúča sa sledovať vývoj AI systémov a viesť prehľad, kde a ako sú vo firme nasadené.
Záver: Poznať riziko znamená predchádzať problémom
AI Act prináša prehľadný rámec, ktorý vám pomôže rozpoznať riziko a nastaviť firemné procesy tak, aby ste boli pripravení na budúce pravidlá. Nie je to zákaz technológií – je to návod, ako s nimi narábať bezpečne, zodpovedne a dôveryhodne.
📬 Zaujímajú vás ďalšie novinky o AI a legislatíve? Prihláste sa na náš newsletter, kde vám pravidelne prinášame aktuality a tipy zo sveta umelej inteligencie.
Rizikové úrovne podľa AI Act: Ako ich rozpoznať a čo znamenajú pre vašu firmu
AI Act, nový legislatívny rámec EÚ, zásadne mení spôsob, akým firmy pristupujú k nasadzovaniu umelej inteligencie. Jeho najdôležitejším pilierom je rozdelenie AI systémov podľa úrovne rizika, ktoré predstavujú pre ľudí a spoločnosť.
Tento článok vám pomôže pochopiť, čo jednotlivé úrovne znamenajú, koho sa týkajú a aké povinnosti z nich vyplývajú pre firmy.
🟥 Úroveň 1: Neprijateľné riziko
Zakázané systémy – porušujú základné hodnoty spoločnosti
Charakteristika:
Ide o systémy, ktoré sú v rozpore s hodnotami EÚ, ako sú ľudská dôstojnosť, súkromie a sloboda. Tieto technológie majú vysoký potenciál na zneužitie a môžu ohroziť demokratické princípy. Ich použitie je zakázané bez výnimky.
Kto do toho spadá:
Firmy a organizácie, ktoré vyvíjajú alebo plánujú používať AI nástroje na sledovanie, kontrolu správania alebo masovú manipuláciu.
Príklady:
– Sociálne skórovanie občanov podľa správania, financií či pôvodu.
– Biometrická identifikácia (napr. rozpoznávanie tváre) na verejných miestach v reálnom čase bez legitímneho dôvodu a súhlasu.
– Systémy manipulujúce správanie ľudí cez zraniteľnosti (napr. u detí alebo chorých).
🟧 Úroveň 2: Vysoké riziko
Systémy s vplyvom na práva, zdravie a rozhodovanie o ľuďoch
Charakteristika:
Tieto AI nástroje ovplyvňujú rozhodnutia, ktoré majú zásadný dopad na životy ľudí – napríklad zamestnanie, vzdelanie, financie alebo zdravie.
Sú povolené, ale podliehajú prísnej regulácii počas celého životného cyklu – od návrhu až po prevádzku.
Kto do toho spadá:
– Vývojári a poskytovatelia AI systémov na nábor, školenie, úverové hodnotenie, diagnostiku, riadenie infraštruktúry, automatizované rozhodovanie vo verejnej správe.
– Firmy, ktoré tieto systémy používajú v praxi (banky, nemocnice, školy, úrady, veľké korporácie).
Príklady:
– AI, ktorá predvyberá kandidátov na pracovné pohovory.
– AI pri rozhodovaní o poskytnutí hypotéky.
– Diagnostické AI nástroje v zdravotníctve.
– AI, ktorá riadi bezpečnostné prvky v doprave či energetike.
🟨 Úroveň 3: Obmedzené riziko
Systémy, ktoré komunikujú s ľuďmi – potrebná transparentnosť
Charakteristika:
Tieto AI systémy neprijímajú kritické rozhodnutia, ale bežne komunikujú alebo interagujú s ľuďmi. Aj keď ich dopad nie je zásadný, zákon vyžaduje, aby ich používanie bolo zrozumiteľné a férové.
Kto do toho spadá:
Firmy používajúce AI nástroje v zákazníckej podpore, marketingu, obsahu alebo automatizácii komunikácie.
Najčastejšie ide o chatboty, hlasových asistentov, generatívne AI modely (obrázky, texty, videá).
Príklady:
– AI chatbot na webe alebo v aplikácii.
– Generovanie textov pomocou ChatGPT.
– Vytváranie deepfake videí na marketingové účely.
🟩 Úroveň 4: Minimálne riziko
Bežné AI nástroje – nízke regulačné požiadavky
Charakteristika:
Ide o nástroje každodennej produktivity, ktoré neovplyvňujú dôležité rozhodnutia ani ľudské práva. Nevyžadujú špeciálnu reguláciu, no AI Act odporúča, aby boli používané zodpovedne a vedome.
Kto do toho spadá:
Každá firma, ktorá používa AI na interné úlohy – generovanie textu, preklad, sumarizáciu, vizualizáciu dát či pomoc pri analýze.
Príklady:
– ChatGPT na tvorbu článkov alebo nápadov.
– Microsoft Copilot v Exceli a Worde.
– AI nástroje na analýzu dát alebo preklady textu.
Záver: Poznať riziko znamená predchádzať problémom
AI Act prináša prehľadný rámec, ktorý vám pomôže rozpoznať riziko a nastaviť firemné procesy tak, aby ste boli pripravení na budúce pravidlá.
Nie je to zákaz technológií – je to návod, ako s nimi narábať bezpečne, zodpovedne a dôveryhodne.
📬 Zaujímajú vás ďalšie novinky o AI a legislatíve?
Prihláste sa na náš newsletter, kde vám pravidelne prinášame aktuality a tipy zo sveta umelej inteligencie.
AI newsletter
Editee: Česká AI platforma pre tvorbu obsahu novej generácie
11 júla, 2025OpenAI pripravuje AI prehliadač: Zmení spôsob, ako používame web?
11 júla, 2025AI prekonala lekárov: Medicínska AI diagnostikuje lacnejšie než ľudia
10 júla, 2025