Škandál v OpenAI: Ako AI využíva dáta miliárd ľudí

  • Home
  • Škandál v OpenAI: Ako AI využíva dáta miliárd ľudí

Škandál v OpenAI: Ako AI využíva dáta miliárd ľudí

23 júla, 2025 Vanda
105 Videní

OpenAI, tvorca známeho nástroja ChatGPT, sa ocitla pod tlakom po odhalení viacerých problémov súvisiacich so získavaním a spracovaním dát, etickými otázkami okolo pracovných podmienok i environmentálnymi dopadmi svojich technológií. Nedávno publikované dokumenty a výpovede bývalých aj súčasných zamestnancov ukazujú, že cesta k rozvoju najvýkonnejšej umelej inteligencie je dláždená mnohými kontroverziami.

Tvrdenia a zdroje škandálu

Novinárka Karen Hao vo svojej knihe a viacerí technologickí analytici upozorňujú, že OpenAI dlhodobo zbiera, spracúva a analyzuje dáta miliárd ľudí bez toho, aby mali používatelia plnú kontrolu nad tým, čo a ako je z ich osobných údajov použité na tréning jazykových modelov. Firma využíva rôzne dátové zdroje, často vrátane verejne dostupných textov, sociálnych sietí či webových stránok. Hoci OpenAI tvrdí, že sa snaží rešpektovať súkromie a práva používateľov, objavili sa vážne pochybnosti o rozsahu a transparentnosti tohto procesu.

Pracovné podmienky a „AI kolonializmus“

Ďalšou stránkou škandálu sú pracovné podmienky ľudí, ktorí pre OpenAI pracujú na anotovaní a moderovaní obsahu. Mnoho týchto pracovníkov pochádza z rozvojových krajín, ako je napríklad Keňa. Pracujú často za veľmi nízku mzdu, približne dva doláre na hodinu, a čelia psychicky náročným úlohám, medzi ktoré patrí filtrovanie nevhodného alebo násilného obsahu. Niektorí zamestnanci dokonca hovorili o dlhodobých následkoch na svoje duševné zdravie, ktoré prirovnávajú k symptómom posttraumatickej stresovej poruchy.

Tieto praktiky mnohí označujú za „AI kolonializmus“ – veľké technologické firmy zo Západu ťažia z dát a práce ľudí v menej rozvinutých krajinách, bez toho, aby spravodlivo rozdeľovali zisk, moc či kontrolu nad vytvorenými technológiami. Tento prístup vyvoláva vlnu kritiky a žiadosti o férovejšie podmienky aj distribúciu zodpovednosti.

OpenAI Files a ďalšie zistenia

Do verejnosti sa nedávno dostali aj interné dokumenty pod označením OpenAI Files, ktoré mapujú vývoj firmy od neziskového startupu po súkromného technologického giganta. Z dokumentov vyplýva, že firma sa v priebehu rokov stále viac sústredila na rýchly rast a maximalizáciu zisku, pričom etické zásady či bezpečnostné skúšky často ustupovali tlaku investorov. Objavili sa aj informácie o zmenách v štruktúre vlastníctva, kde boli pôvodne plánované limity na výnosy pre investorov časom zrušené, aby bolo možné zabezpečiť ďalší rozvoj.

Podľa viacerých bývalých zamestnancov sa v OpenAI vyskytovala aj kultúra, ktorá odrádzala od otvoreného hlásenia problémov či nesúhlasu. Viacero špičkových výskumníkov a odborníkov na bezpečnosť AI firmu v uplynulých rokoch opustilo práve pre nesúhlas s internými praktikami a nedostatkom etickej transparentnosti.

Environmentálne dôsledky vývoja AI

Tréning veľkých jazykových modelov si vyžaduje obrovské množstvo výpočtového výkonu, čo vedie k výraznej spotrebe elektriny a vody v dátových centrách. Najmä v oblastiach, kde sú tieto centrá umiestnené, môže ich prevádzka spôsobovať environmentálne zaťaženie, napríklad nadmerné čerpanie vody z lokálnych zdrojov. V krajinách ako Čile sa ukazuje, že prevádzka dátových centier môže niekoľkonásobne prevýšiť spotrebu vody celej veľkej metropoly. Otázka ekologickej udržateľnosti AI sa preto stáva jednou z najhorúcejších tém v diskusii o zodpovednom rozvoji moderných technológií.

Výzvy a odporúčania

Celý škandál okolo OpenAI poukazuje na potrebu prísnejších pravidiel pre zber a spracovanie dát, férové pracovné podmienky a ekologickú zodpovednosť technologických gigantov. Mnohé odborné komunity aj mimovládne organizácie preto vyzývajú na väčšiu transparentnosť, otvorený reporting a vznik nezávislých dohľadových orgánov, ktoré by dozerali na etiku a spoločenský dopad umelej inteligencie.

Záver

Príbeh OpenAI je ukážkou toho, že vývoj AI nie je len technologickou, ale predovšetkým spoločenskou otázkou. Hľadanie rovnováhy medzi inováciou, ziskom, spravodlivosťou a ochranou ľudských práv bude kľúčové pre dôveru verejnosti v nové generácie AI systémov. Kým sa budú takéto prípady odhaľovať a diskutovať, bude rásť tlak na firmy, aby prevzali väčšiu zodpovednosť za svoje rozhodnutia aj voči tým najzraniteľnejším článkom globálnej technologickej siete.

leave a comment