Keď technológia zasahuje do práv, prichádza právo
Nie každá umelá inteligencia je rovnaká. Niektoré systémy odporúčajú pesničky, iné optimalizujú spotrebu energie. No niektoré rozhodujú o tom, či vás prijmú do práce, či dostanete hypotéku, alebo či budete predmetom policajného dohľadu. A práve v týchto prípadoch, keď má AI reálny vplyv na práva, povinnosti a dôstojnosť človeka, nastupuje osobitný právny režim.
Európska únia to v AI Acte pomenovala jasne: takéto systémy sú vysokorizikové a preto podliehajú prísnejšiemu dohľadu, kontrole a dokumentácii.
Čo robí AI „vysokorizikovou“?
Článok 6 a prílohy II. a III. AI Actu presne určujú, čo tvorí vysokorizikové systémy. Kritériom nie je len technická zložitosť alebo výpočtový výkon, ale miesto a spôsob použitia. Inými slovami: niektoré oblasti spoločenského života sú tak citlivé, že ak do nich zasiahne algoritmus, musí podliehať prísnym pravidlám.
Medzi najdôležitejšie oblasti, kde je použitie AI automaticky považované za vysokorizikové, patria najmä:
Zdravotníctvo. Siagnostické a terapeutické systémy, ktoré ovplyvňujú rozhodnutia o zdraví a živote.
Vzdelávanie a zamestnanosť. Systémy hodnotiace skúšky, prijímanie zamestnancov či kariérny rast.
Presadzovanie práva a justícia. Rozpoznávanie tvárí, prediktívna kriminalita, hodnotenie rizika recidívy.
Finančné a sociálne služby. Schvaľovanie úverov, prideľovanie sociálnych dávok.
Migrácia a hraničná kontrola. Hodnotenie žiadostí o azyl, detekcia klamstva, verifikácia dokumentov.
Všetky tieto oblasti majú jedno spoločné: vysoký potenciál na zásah do základných práv, a preto si zaslúžia prísnu právnu ochranu.
Aké povinnosti platia pre vysokorizikové AI?
AI Akt ukladá vývojárom a používateľom vysokorizikových systémov celý súbor konkrétnych povinností.
Vývojár musí navrhnúť systém riadenia rizík tak, aby aktívne minimalizoval technické, etické a právne riziká.
Zároveň je povinný vypracovať technickú dokumentáciu, ktorá jasne popisuje rozhodovacie procesy, algoritmy, dáta a spôsob ich spracovania.
Musí zabezpečiť transparentnosť tým, že systém bude zrozumiteľný a jeho výstupy vysvetliteľné.
Zodpovedá tiež za kybernetickú bezpečnosť systému a za jeho odolnosť voči manipuláciám, útokom a zneužitiu.
Používateľ nesmie nechať systém rozhodovať úplne autonómne – musí zabezpečiť ľudský dohľad.
Pred uvedením systému na trh musí zabezpečiť jeho posúdenie zhody s požiadavkami nariadenia.
Nakoniec, každý vysokorizikový systém musia zaregistrovať v centrálnom registri EÚ, čím zabezpečia transparentnosť a umožnia dohľad verejnosti aj regulačných orgánov.
Prečo to celé robíme?
Zmyslom tejto kategórie nie je brzdiť inovácie, ale ochrániť to, čo je najcennejšie. Teda ľudské práva, dôstojnosť a rovnosť. Ak by sme nechali AI bez kontroly vstupovať do takýchto citlivých oblastí, hrozilo by napríklad diskriminačné rozhodovanie, teda rozhodovanie napríklad na základe pohlavia, etnického pôvodu či socioekonomického statusu. Nedostatok opravných prostriedkov, teda ak AI rozhodne zle, no nikto nevie prečo. Erózia právnej istoty, teda keď algoritmus nahradí právnu normu bez záruk a pravidiel.
AI Akt tak vytvára regulačný nárazník, kedy nepovedal technológiám „nie“, ale povedal „len ak…“. Len ak systém spĺňa prísne požiadavky, len ak je vysvetliteľný, len ak ho kontroluje človek.
Technológie ? Áno, ale zodpovedne
Vysokorizikové systémy AI sú ukážkou toho, že nie všetko nové je automaticky dobré. Ak technológia rozhoduje o právach ľudí, právo ju musí sprevádzať od začiatku až po dôsledky jej použiti. AI Akt preto neprichádza s plošným zákazom, ale s požiadavkou zodpovednosti, transparentnosti a kontroly.
Takto sa buduje dôvera. Ak ľudia nebudú veriť v spravodlivosť a férovosť systému, aj tá najinteligentnejšia AI zostane spoločensky neudržateľná.