
Parlament Europejski po raz kolejny podejmuje próbę uregulowania odpowiedzialności cywilnej za sztuczną inteligencję. Z jej wykorzystywaniem wiąże się problem odpowiedzialności za szkody. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Jak wygląda w tym przypadku odpowiedzialność za produkt? Co z sytuacją, gdy samo urządzenie wprowadza dodatkowe ryzyko?
Ustawodawca unijny opublikował właśnie wniosek dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji. Zdaniem dr. Kamila Szpyta, radcy prawnego z kancelarii Dybała Janusz Szpyt i Partnerzy Kancelaria Radców Prawnych, ta próba jest nieco bardziej udana niż poprzednia.
Przede wszystkim ustawodawca tym razem zdecydował się na uregulowanie wspomnianej kwestie za pomocą dyrektywy.
– Należy to ocenić pozytywnie. Ten rodzaj aktu prawnego jest o wiele bardziej elastyczny niż rozporządzenie, do którego planowano sięgnąć przy okazji wcześniejszego projektu stanowiącego załącznik do Rezolucji Parlamentu Europejskiego z 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL). Tym samym lepiej powinien się sprawdzić w kontekście zapewnienia niezbędnej harmonizacji przepisów unijnych z niejednokrotnie dość zróżnicowanymi przepisami funkcjonującymi w państwach członkowskich – uważa dr Kamil Szpyt.
Autorzy projektu w uzasadnieniu napisali, że projekt ma stanowić panaceum na panujący obecnie brak pewności prawa i ryzyko wystąpienia rozbieżności uregulowań w poszczególnych państwach członkowskich. Komplikacje te mogą – według przewidywań – utrudnić rozwój rynku wewnętrznego, a docelowo stanowić istotną przeszkodę w transgranicznym handlu produktami i usługami opartymi na sztucznej inteligencji.
Obecny wniosek odnosi się jedynie do roszczeń pozaumownych. Nie reguluje natomiast materii odpowiedzialności kontraktowej.
– Należy założyć, że w tym przypadku zastosowanie znajdą przepisy ogólne, ze swobodą kontraktowania na czele – mówi Kamil Szpyt.
W kwestii stosowanych definicji wniosek zawiera sporo odniesień do AI Act (AI – ang. artificial intelligence), w szczególności w zakresie pojęć systemu sztucznej inteligencji i sytemu sztucznej inteligencji wysokiego ryzyka.
– To również należy ocenić pozytywnie. Dotychczas niemalże każdy kolejny akt unijny wprowadzał własne definicje, co rodziło niepotrzebne zamieszanie. To rozwiązanie sygnalizuje szanse na ujednolicenie ustawodawstwa – uważa Kamil Szpyt. TP
Czytaj więcej na Prawo.pl:
https://www.prawo.pl/biznes/odpowiedzialnosc-za-sztuczna-inteligencje-beda-przepisy,517822.html
Fot. Pixabay