Odpowiedzialność prawna za działania robotów. Czy roboty mogą mieć osobowość prawną?

Roboty jako część Przemysłu 4.0

Roboty, systemy autonomiczne i sztuczna inteligencja są częścią rodzącego się Przemysłu 4.0. Pojęcie „Przemysłu 4.0” – dotyka długotrwałego i skomplikowanego procesu transformacji gospodarczej i społecznej. Transformacja ta opiera się na wymieszaniu świata rzeczywistego (analogowego) i świata wirtualnego (cyfrowego). Dzieje się to dzięki rozwojowi systemów M2M (machine-to-machine), internetowi rzeczy, robotyki i systemów autonomicznych. W wymiarze węższym, chodzi o cyfryzację i autonomizację tradycyjnych gałęzi przemysłu i tworzenie inteligentnych przedsiębiorstw (smart factories). W wymiarze szerszym chodzi także o stworzenie w pełni inteligentnych miast i domów.

Skąd cyfra „4.0”? Oznacza ona czwartą rewolucję przemysłową. Pierwsza rewolucja przemysłowa oparta była na mechanizacji produkcji dzięki użyciu wody i pary. W drugiej użyto prądu elektrycznego, co pozwoliło na umasowienie produkcji przemysłowej. Trzecia, dzięki zastosowaniu elektroniki i informatyki, zautomatyzowała produkcję. Obecna, czwarta rewolucja charakteryzuje się połączeniem różnych technologii, które zacierają granice między sferą realną a cyfrową. Jedną z głównych cech Przemysłu 4.0 jest zdolność maszyn i urządzeń do komunikowania się między sobą bez udziału człowieka. Komunikacja M2M jest podstawą do inteligentnej produkcji, logistyki i transportu.

Odpowiedzialność cywilna

Wszystkie wspomniane zjawiska takie jak roboty, systemy autonomiczne czy sztuczna inteligencja stwarzają szereg nowych wyzwań prawnych. Opracowanie ram prawnych dla Przemysłu 4.0 to zadanie, przed którym stoją prawodawcy krajowi i europejscy. Debata prawna dotycząca tej sfery dopiero się zaczyna. Obecnie prace w tym zakresie trwają głównie na forum unijnym. W styczniu 2017 r. powstał projekt rezolucji Parlamentu Europejskiego zawierającej zalecenie dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki, która daje rekomendacje Komisji co do zakresu zmian w prawie unijnym w tym zakresie. Równolegle zaawansowane prace dotyczące uregulowań prawnych w zakresie robotyki i sztucznej inteligencji trwają w USA, Japonii, Chin i Korei Południowej. Również w Polsce, w Ministerstwie Rozwoju powstała Grupa robocza  ds. ram prawnych funkcjonowania Przemysłu 4.0.

Jednym z najważniejszych wyzwań prawnych dotyczących robotyki są zagadnienia związane z odpowiedzialnością cywilną i karną. Dotyczy to w szczególności systemów autonomicznych i pół-autonomicznych jak i sztucznej inteligencji i systemów samouczących się. Zwraca się uwagę, że im bardziej autonomiczne są maszyny/ roboty, tym w mniejszym stopniu można prześledzić łańcuch odpowiedzialności kolejnych podmiotów, które tradycyjnie byłyby za ich funkcjonowanie odpowiedzialne (np. producentów, producentów oprogramowania, właścicieli maszyny, podmiotów szkolących maszyny).  Pojawiają się tu pytania o to, czy tradycyjne rozumienie odpowiedzialności cywilnej jest wystarczające, w szczególności w odniesieniu do maszyn samouczących się, w tym takich które mogą podejmować samodzielne decyzje.

Tytułem przykładu wyzwań, przed jakimi stoją prawnicy można wskazać to, że jeżeli uznać, że tradycyjna konstrukcja odpowiedzialności jest wystarczająca, to pojawia się pytanie o to w jakim zakresie stosować dotychczasowe zasady odpowiedzialności opartej na winie, a w jakim zakresie odpowiedzialności opartej na ryzyku. Odpowiedzialność oparta na zasadzie ryzyka bardziej odpowiada systemom autonomicznym, nie może ona jednak eliminować całkiem odpowiedzialności na zasadzie winy.

Elektroniczna osobowość prawna

W przypadku najbardziej zaawansowanych robotów coraz częstsza staje się jednak sytuacja, gdy nie można przypisać odpowiedzialności konkretnemu podmiotowi odpowiedzialnemu za produkcję, czy użytkowanie maszyny.  Dotyczy to w szczególności maszyn samodzielnie podejmujących decyzje. Wówczas nawet system odpowiedzialności na zasadzie ryzyka nie jest wystarczający. Zwracają na to uwagę autorzy Sprawozdania z 27 stycznia 2017 r. zawierającego zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki. W związku z tym zaczynają pojawiać się postulaty stworzenia nowej kategorii dla najbardziej zaawansowanych maszyn – elektronicznej osoby prawnej. Nadanie osobowości prawnej takim maszynom pozwoliłoby na rozwiązanie kwestii odpowiedzialności za szkodę w najbardziej wątpliwych przypadkach. Pozwoliłoby także na stworzenie pewnego rodzaju funduszu ubezpieczeniowego, który byłby związany z daną maszyną. Z takiego funduszu, na który składki płaciłby producent, właściciel, użytkownik, czy nawet osoba szkoląca maszynę byłyby wypłacane odszkodowania dla osób, które poniosły szkodę w związku z jej działaniem. Historia wypłat z tego funduszu pozwoliłoby także na transparentną ocenę swego rodzaju „szkodowości” danej maszyny – jak często i w jakich sytuacjach niewykonywana lub nieprawidłowo wykonywała swoje świadczenia. Przedstawiona tu koncepcja – jakkolwiek rewolucyjna – wydaje się być rozwiązaniem coraz częściej dyskutowanym dla skrajnych przypadków – np. robotów, które samodzielnie podejmują decyzje o zawieraniu lub rozwiązywaniu umów – jak w pewnych rodzajach rozwiązań „blockchain”.

Ubezpieczenia robotów

Z uwagi na problemy z przypisaniem konkretnej osobie odpowiedzialności za szkodę spowodowaną przez robota, coraz częściej rozważany jest też postulat objęcia wszystkich robotów, nie tylko tych najbardziej zaawansowanych, specjalnym systemem ubezpieczeń. System taki działałby na wzór systemu ubezpieczeń samochodowych. Ubezpieczenia byłyby obowiązkowe dla producentów i właścicieli systemów autonomicznych. Dodatkowo powstałby też odrębny fundusz gwarantujący wypłatę odszkodowania w sytuacjach, gdy szkoda wyrządzona przez system autonomiczny nie byłaby objęta ubezpieczeniem OC.

Co dalej?

Na poziomie unijnym postuluje się obecnie, by na podstawie art. 114 Traktatu o Funkcjonowaniu Unii Europejskiej, Komisja rozpoczęła prace nad instrumentem prawnym regulującym zagadnienia związane z możliwym do przewidzenia rozwojem i wykorzystaniem robotyki w ciągu najbliższych 10–15 lat. Rozwiązania te dotyczyć będą również kwestii odpowiedzialności cywilnej. Jak zwraca się uwagę, powinny być one połączone ze stworzeniem instrumentów, które co prawda nie mają charakteru formalnoprawnego, ale mimo to wpływają na rozwiazywanie problemów, które są  bardzo ważne dla robotyki. Są to zwłaszcza kodeksy etyki dla producentów robotów, w tym producentów oprogramowania. Kodeksy te zawierające normy jakie należy przyjąć przy projektowaniu i produkcji robotów będą miały też duży wpływ na wypracowane zasad odpowiedzialności osób produkujących, szkolących i użytkujących roboty.

Obecnie trudno dać jednoznaczną odpowiedź na pytanie, postawione na wstępie. Sam fakt, że stawiane jest obecnie pytanie o możliwość wyposażenia robotów w osobowość prawną wskazuje, że jesteśmy u progu rzeczywistej rewolucji, być może cywilizacyjnej.

__________

Tekst pojawił się drukiem w miesięczniku „Automatyka” (ISSN 2392-1056)

dr Aleksandra Auleytner

dr Aleksandra Auleytner
Radca Prawny, Partner

aleksandra.auleytner@dzp.pl

komentarze 4

  1. Bardzo ciekawa alternatywa dla całkowitego wyzbycia się odpowiedzialności prawnej;)

  2. To jest bardzo multidyscyplinarne, wiele dziedzin nauki musi spotkać się w jednym miejscu. Na końcu ktoś musi wziąć odpowiedzialność za algorytmy, które będą decydować. Do brania odpowiedzialności nie będzie ustawiała się kolejka.

  3. Już jakiś czas temu zastanawiałem się nad rozwiązaniem hipotetycznego sporu – wypadek dwóch samochodów autonomicznych. Kto poniesie odpowiedzialność za błąd algorytmu? Tępo w jakim rozwija się technologia sprawia, że przed prawnikami ciężka i długa praca.

  4. Ciekawa kwestia. Na pewno godna poruszenia na forum publicznym. Tylko czy znaleźliby się chętni? Robotyzacja nie jest nam obca, na co dzień obcujemy z robotami i innymi wymysłami techniki. Tylko czy umiemy o tym mówić?

Komentarze

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *