kaduc-logo

Logo vychádza z koncepcie spojenia moderného a tradičného poňatia advokácie.
Základnú konštrukciu loga
tvoria dva elementy: symbol
pilcrow a názov advokátskej
kancelárie.

Význam symbolu

Transparentnosť ako právo rozumieť rozhodnutiam algoritmu

Predstavte si, že vám banka zamietne žiadosť o úver. Nepovie však prečo, iba „na základe algoritmického hodnotenia“. Alebo že vám úrad zamietne sociálnu dávku, súd vás zaradí do systému s vyšším rizikom recidívy, či poisťovňa určí vyššiu sadzbu len preto, že to „povedal systém“. Takéto rozhodnutia nie sú len technické no sú právne relevantné, niekedy existenčné. A ak im nerozumiete, nemôžete sa voči nim brániť. Práve tu prichádza na rad transparentnosť AI.

Prečo je transparentnosť dôležitá?

Ide o základné predpoklady právnej istoty, dôveryhodnosti a napokon aj legitímnosti celého algoritmického rozhodovania.
Je vhodné podotknúť, že transparentnosť u AI chápeme vo viacerých rovinách. V prvom rade ide o všeobecnú vedomosť verejnosti o procesoch AI. Jednotlivec by mal byť schopný pochopiť, ako funguje rozhodovací proces AI.

Ďalej treba priblížiť termín vysvetliteľnosť. Tu hovoríme o schopnosti jednotlivca vysvetliť si, prečo v tomto konkrétnom prípade rozhodla AI tak ako rozhodla. V neposlednom rade netreba zabúdať ani na záchrannú sieť, tzv. logging, resp. zaznamenávanie rozhodnutí AI. Vďaka loggingu vieme odhaliť rôzne nedostatky AI rozhodovania, napríklad v oblasti diskriminácie, ktoré môžu byť výsledkom použita nesprávnej trénovacej databázy. Je dôležité mať tieto termíny na pamäti, aj keď v tomto článku hovoríme o transparentnosti v jednoduchšom, všeobecnejšom rámci.

Prečo je transparentnosť dôležitá?

V klasickom právnom systéme má každé rozhodnutie svoj dôvod. Súd, úrad či orgán verejnej moci, všetci musia svoje rozhodnutia odôvodniť. Len tak možno zabezpečiť kontrolu, opravu chýb a rovnosť pred zákonom. Ak túto úlohu prevezme AI, musíme uplatniť rovnaké pravidlo: nemôžeme akceptovať rozhodnutia, ktorým nikto nerozumie.

AI systémy, najmä tie založené na strojovom učení, však často fungujú ako tzv. black boxy. Systémy AI prijímajú rozhodnutia na základe zložitých výpočtov, ktoré nedokážeme jednoducho spätne vysvetliť. Právo preto kladie dôraz aspoň na funkčnú vysvetliteľnosť, teda schopnosť popísať vstupy, logiku a dôsledky rozhodovania.

Čo vyžaduje AI Akt?

AI Akt kladie jasné požiadavky na transparentnosť, predovšetkým v dvoch oblastiach.Po prvé, vyžaduje identifikáciu systému. Ak človek komunikuje so systémom AI, poskytovateľ ho musí zreteľne označiť. Poskytovateľ musí výslovne označiť chatbota ako umelú inteligenciu, aby používateľ vedel, že nehovorí s človekom. Po druhé, ukladá povinnosť označovať syntetický obsah. Keď AI vytvorí text, obraz, video alebo zvuk (napríklad deepfake), tvorca ho musí zreteľne označiť ako umelý.

Týmto spôsobom chce regulátor bojovať proti dezinformáciám, manipulácii verejnej mienky či digitálnym podvodom. Pri vysokorizikových systémoch ide ešte ďalej. Prevádzkovatelia musia používateľom poskytnúť zrozumiteľné informácie o tom, ako systém prijíma rozhodnutia, na základe akých vstupov a aké riziká s tým súvisia. Zároveň im musia vysvetliť obmedzenia, spoľahlivosť a výkonnosť systému.

Vysvetliteľnosť ako právny nárok

Transparentnosť však nie je len technická požiadavka. Má jasný právny rozmer. Bez vysvetliteľnosti nemožno účinne uplatniť práva ako napríklad právo na opravu, právo na odvolanie sa, právo nebyť predmetom výlučne automatizovaného rozhodnutia.

Zjednodušene povedané, ak neviete, prečo ste prehrali, nemôžete sa brániť. A ak sa nemôžete brániť, nefunguje právny štát.

Preto sa v súvislosti s AI čoraz viac hovorí o „práve na vysvetlenie“ (right to explanation). Hoci AI Akt toto právo výslovne neuvádza ako samostatné subjektívne právo, vyvodzujeme ho zo súboru povinností, ktoré kladie na poskytovateľov a používateľov systému. A to najmä tam, kde AI zasahuje do základných práv.

Kompromis medzi technológiou a právom

Nie každý systém AI dokáže poskytnúť úplne detailné odôvodnenie svojho rozhodnutia. Právna teória preto rozlišuje medzi dvoma úrovňami vysvetliteľnosti. Pri globálnej vysvetliteľnosti vývojári a prevádzkovatelia vysvetľujú, ako systém všeobecne funguje. Pri lokálnej vysvetliteľnosti objasňujú konkrétne rozhodnutie v konkrétnom prípade.

AI Akt nevyžaduje, aby poskytovatelia úplne odhalili kód alebo algoritmus. Trvá však na tom, aby vedeli dôvody rozhodnutia aspoň zrozumiteľne zhrnúť – či už cez výstup z rozhodovania, dokumentáciu alebo zrozumiteľnú správu.

Rozumieť znamená dôverovať

Transparentnosť a vysvetliteľnosť nie sú prekážkami inovácií, naopak, sú ich predpokladom. AI nebude nikdy dôveryhodná, ak nebude zrozumiteľná. A nebude legitímna, ak nebude kontrolovateľná.
Preto AI Akt nejde cestou slepej viery v technológiu, ale kladie dôraz na to, aby AI slúžila právnemu poriadku, nie ho obchádzala. V ére, kde rozhodnutia čoraz častejšie prijímajú algoritmy, zostáva vysvetliteľnosť ich najdôležitejším ľudským komponentom.

Nasledujúca časť:

AI Akt IV. - Vysokorizikové systémy AI a ich právna regulácia

Miroslav KADÚC AUTOR ČLÁNKU
ZDIELAŤ ČLÁNOK
Sme tu, aby sme
poradili, pýtajte sa

    Meno a Priezvisko
    vzor@email.sk
    +421 111 222 333
    Dobrý deň, chcem sa informovať ...

    Vaše osobné údaje spracúvame za účelom vybavenia Vašej požiadavky.
    Viac informácií nájdete v sekcii ochrana osobných údajov.

    E-MAIL

    office@kaduc.sk

    TELEFÓN

    +421 950 679 434

    KANCELÁRIA A SÍDLO

    kaduc & partneri s. r. o.

    Trojičné námestie 4, 917 01 Trnava
    Slovenská republika
    (korešpondenčná adresa)

    KANCELÁRIA

    Panenská 23
    811 03 Bratislava
    Slovenská republika