kaduc-logo

Logo vychádza z koncepcie spojenia moderného a tradičného poňatia advokácie.
Základnú konštrukciu loga
tvoria dva elementy: symbol
pilcrow a názov advokátskej
kancelárie.

Význam symbolu

Zodpovednosť, keď rozhoduje stroj?

AI dokáže navrhovať liečbu, odporúčať kandidátov na zamestnanie, analyzovať dôkazy v trestnom konaní či schvaľovať hypotéky. Je to pohodlné, efektívne, no zároveň to kladie jednu z najťažších právnych otázok súčasnosti. Na kom je zodpovednosť, keď AI rozhodne zle, resp. spôsobí škodu?
Ak autonómny algoritmus zamietne žiadosť o sociálnu dávku, odmietne kandidáta na základe skreslených dát alebo spôsobí dopravnú nehodu, kto je ten „niekto“, kto zlyhal? Dá sa za chybu obviniť samotný systém?

Je zodpovedný vývojár, používateľ, alebo niekto tretí?

AI Akt na túto otázku odpovedá jasne: AI nie je právnou osobou, a teda nemôže niesť zodpovednosť. Neexistuje žiadna „elektronická osoba“. Algoritmus síce koná, no zodpovednosť za jeho konanie nesú ľudia alebo firmy, ktoré ho vytvorili alebo nasadili, resp. AI používajú. Tento prístup vychádza aj zo širších princípov stanovených medzinárodne, napríklad zo zásad OECD. Tento prístup je dôležitý nielen z právneho, ale aj spoločenského hľadiska. Za chyby predsa vždy musí niekto niesť zodpovednosť. Nemôžeme sa dostať do situácie, kedy dopady nevhodného použitia AI nebudeme môcť nikomu pripísať, preto AI Akt dôsledne upravuje, kto a kedy za čo zodpovedá.

Dve kľúčové roly: poskytovateľ a používateľ

Nariadenie rozlišuje dve hlavné kategórie subjektov, ktoré nesú právne povinnosti:
Poskytovateľ (provider). Ten, kto systém vyvinul alebo ho uvádza na trh. Zodpovedá za to, že systém je v súlade s pravidlami, teda musí byť bezpečný, overený, testovaný, mať dokumentáciu, systém riadenia rizík a podobne. Pokiaľ vývojár zanedbá niektorú z týchto povinností, zodpovedá za následky.
Nasadzujúci subjekt (deploying entity). Ten, kto AI reálne používa. Napríklad úrad, súd, nemocnica, súkromná firma, či fyzická osoba. Tento subjekt je zodpovedný za to, že systém používa správne, teda v súlade s jeho určením, nepredpojatým spôsobom a bez porušenia práv dotknutých osôb.
Táto dvojúrovňová štruktúra zodpovednosti umožňuje sledovať pôvod problému. Ak ide o chybu v dizajne, zodpovedá vývojár; ak ide o nesprávne použitie, tak používateľ. Zabezpečuje sa tak, že AI systém nikdy nie je bez osoby zodpovednej za jeho dopady.

Ako to vyzerá v praxi?

Predstavme si situáciu, kde nemocnica používa AI na vyhodnocovanie rizika infarktu. Ak systém nesprávne identifikuje pacienta ako „bez rizika“ a dôjde k vážnym zdravotným následkom, kto zodpovedá?
Ak išlo o chybu v algoritmoch, teda napríklad bol systém trénovaný len na mužských pacientoch a ignoroval špecifiká žien, zodpovedá poskytovateľ systému, ktorý nezabezpečil inkluzívnosť a spoľahlivosť AI systému.
Avšak ak nemocnica použila AI systém nesprávne, teda napríklad ignorovala bezpečnostné upozornenia alebo ho použila nad rámec jeho známych schopností, zodpovedá používateľ, teda nemocnica.

Zodpovednosť ako most k dôvere

Zmyslom tejto právnej úpravy nie je len potrestať vinníka, ale vytvoriť dôveru. Len ak ľudia vedia, že majú komu figuratívne „klopať na dvere“, ak sa niečo pokazí, sú ochotní prijať rozhodovanie AI ako legitímne. Práve zodpovednosť je základom dôvery, a bez dôvery nebude AI nikdy plnohodnotne prijatá.
AI Akt však nejde až k úprave špeciálneho režimu zodpovednosti. Nezavádza nové typy žalôb ani neuznáva autonómiu algoritmov. Skôr zosúlaďuje existujúce režimy zodpovednosti, napríklad podľa smernice o vadných výrobkoch so špecifikami AI.
V praxi sa tak budú často aplikovať normy občianskeho práva, pričom AI Akt poslúži ako štandard bezpečnosti a náležitej starostlivosti, podľa ktorého sa bude posudzovať, či konanie poskytovateľa alebo používateľa bolo zákonné.

Vždy je niekto zodpovedný

Umelá inteligencia je nástroj komplexný, autonómny a nepredvídateľný. Práve preto musíme v právnom poriadku trvať na jednom základnom pravidle: za rozhodnutie AI systému vždy niekto nesie zodpovednosť. Vývojár, ktorý zanedbal testovanie. Používateľ, ktorý prekročil hranice určeného použitia. Každý z nich drží v rukách konkrétny diel tejto zodpovednosti. Nie preto, že by to bolo pohodlné, ale preto, že je to nevyhnutné. Zodpovednosť je protiváhou technologickej moci, a zároveň našou poistkou, že nezameníme človeka za kód.
Lebo ak raz dovolíme, aby o osudoch ľudí rozhodovali stroje bez ľudskej tváre, môže sa stať, že naše práva sa premenia na lenivé premenné v riadkoch neznámeho skriptu. A zodpovednosť? Tá sa stratí ako dym medzi riadkami kódu.

Nasledujúca časť:

AI Akt III. - Regulatívna transparentnosť systémov AI

Tomáš MIŠUDÍK AUTOR ČLÁNKU
ZDIELAŤ ČLÁNOK
Sme tu, aby sme
poradili, pýtajte sa

    Meno a Priezvisko
    vzor@email.sk
    +421 111 222 333
    Dobrý deň, chcem sa informovať ...

    Vaše osobné údaje spracúvame za účelom vybavenia Vašej požiadavky.
    Viac informácií nájdete v sekcii ochrana osobných údajov.

    E-MAIL

    office@kaduc.sk

    TELEFÓN

    +421 950 679 434

    KANCELÁRIA A SÍDLO

    kaduc & partneri s. r. o.

    Trojičné námestie 4, 917 01 Trnava
    Slovenská republika
    (korešpondenčná adresa)

    KANCELÁRIA

    Panenská 23
    811 03 Bratislava
    Slovenská republika