Transparentnosť ako právo rozumieť rozhodnutiam algoritmu
Predstavte si, že vám banka zamietne žiadosť o úver. Nepovie však prečo, iba „na základe algoritmického hodnotenia“. Alebo že vám úrad zamietne sociálnu dávku, súd vás zaradí do systému s vyšším rizikom recidívy, či poisťovňa určí vyššiu sadzbu len preto, že to „povedal systém“. Takéto rozhodnutia nie sú len technické no sú právne relevantné, niekedy existenčné. A ak im nerozumiete, nemôžete sa voči nim brániť. Práve tu prichádza na rad transparentnosť AI.
Prečo je transparentnosť dôležitá?
Ide o základné predpoklady právnej istoty, dôveryhodnosti a napokon aj legitímnosti celého algoritmického rozhodovania.
Je vhodné podotknúť, že transparentnosť u AI chápeme vo viacerých rovinách. V prvom rade ide o všeobecnú vedomosť verejnosti o procesoch AI. Jednotlivec by mal byť schopný pochopiť, ako funguje rozhodovací proces AI.
Ďalej treba priblížiť termín vysvetliteľnosť. Tu hovoríme o schopnosti jednotlivca vysvetliť si, prečo v tomto konkrétnom prípade rozhodla AI tak ako rozhodla. V neposlednom rade netreba zabúdať ani na záchrannú sieť, tzv. logging, resp. zaznamenávanie rozhodnutí AI. Vďaka loggingu vieme odhaliť rôzne nedostatky AI rozhodovania, napríklad v oblasti diskriminácie, ktoré môžu byť výsledkom použita nesprávnej trénovacej databázy. Je dôležité mať tieto termíny na pamäti, aj keď v tomto článku hovoríme o transparentnosti v jednoduchšom, všeobecnejšom rámci.
Prečo je transparentnosť dôležitá?
V klasickom právnom systéme má každé rozhodnutie svoj dôvod. Súd, úrad či orgán verejnej moci, všetci musia svoje rozhodnutia odôvodniť. Len tak možno zabezpečiť kontrolu, opravu chýb a rovnosť pred zákonom. Ak túto úlohu prevezme AI, musíme uplatniť rovnaké pravidlo: nemôžeme akceptovať rozhodnutia, ktorým nikto nerozumie.
AI systémy, najmä tie založené na strojovom učení, však často fungujú ako tzv. black boxy. Systémy AI prijímajú rozhodnutia na základe zložitých výpočtov, ktoré nedokážeme jednoducho spätne vysvetliť. Právo preto kladie dôraz aspoň na funkčnú vysvetliteľnosť, teda schopnosť popísať vstupy, logiku a dôsledky rozhodovania.
Čo vyžaduje AI Akt?
AI Akt kladie jasné požiadavky na transparentnosť, predovšetkým v dvoch oblastiach.Po prvé, vyžaduje identifikáciu systému. Ak človek komunikuje so systémom AI, poskytovateľ ho musí zreteľne označiť. Poskytovateľ musí výslovne označiť chatbota ako umelú inteligenciu, aby používateľ vedel, že nehovorí s človekom. Po druhé, ukladá povinnosť označovať syntetický obsah. Keď AI vytvorí text, obraz, video alebo zvuk (napríklad deepfake), tvorca ho musí zreteľne označiť ako umelý.
Týmto spôsobom chce regulátor bojovať proti dezinformáciám, manipulácii verejnej mienky či digitálnym podvodom. Pri vysokorizikových systémoch ide ešte ďalej. Prevádzkovatelia musia používateľom poskytnúť zrozumiteľné informácie o tom, ako systém prijíma rozhodnutia, na základe akých vstupov a aké riziká s tým súvisia. Zároveň im musia vysvetliť obmedzenia, spoľahlivosť a výkonnosť systému.
Vysvetliteľnosť ako právny nárok
Transparentnosť však nie je len technická požiadavka. Má jasný právny rozmer. Bez vysvetliteľnosti nemožno účinne uplatniť práva ako napríklad právo na opravu, právo na odvolanie sa, právo nebyť predmetom výlučne automatizovaného rozhodnutia.
Zjednodušene povedané, ak neviete, prečo ste prehrali, nemôžete sa brániť. A ak sa nemôžete brániť, nefunguje právny štát.
Preto sa v súvislosti s AI čoraz viac hovorí o „práve na vysvetlenie“ (right to explanation). Hoci AI Akt toto právo výslovne neuvádza ako samostatné subjektívne právo, vyvodzujeme ho zo súboru povinností, ktoré kladie na poskytovateľov a používateľov systému. A to najmä tam, kde AI zasahuje do základných práv.
Kompromis medzi technológiou a právom
Nie každý systém AI dokáže poskytnúť úplne detailné odôvodnenie svojho rozhodnutia. Právna teória preto rozlišuje medzi dvoma úrovňami vysvetliteľnosti. Pri globálnej vysvetliteľnosti vývojári a prevádzkovatelia vysvetľujú, ako systém všeobecne funguje. Pri lokálnej vysvetliteľnosti objasňujú konkrétne rozhodnutie v konkrétnom prípade.
AI Akt nevyžaduje, aby poskytovatelia úplne odhalili kód alebo algoritmus. Trvá však na tom, aby vedeli dôvody rozhodnutia aspoň zrozumiteľne zhrnúť – či už cez výstup z rozhodovania, dokumentáciu alebo zrozumiteľnú správu.
Rozumieť znamená dôverovať
Transparentnosť a vysvetliteľnosť nie sú prekážkami inovácií, naopak, sú ich predpokladom. AI nebude nikdy dôveryhodná, ak nebude zrozumiteľná. A nebude legitímna, ak nebude kontrolovateľná.
Preto AI Akt nejde cestou slepej viery v technológiu, ale kladie dôraz na to, aby AI slúžila právnemu poriadku, nie ho obchádzala. V ére, kde rozhodnutia čoraz častejšie prijímajú algoritmy, zostáva vysvetliteľnosť ich najdôležitejším ľudským komponentom.