Postęp technologiczny pędzi w coraz to większym tempie. Następnym przystankiem na tej trasie wydaje się być rozwój sztucznej inteligencji, w tym robotyki. Statystki dowodzą, że w latach 2010–2014 średni wzrost sprzedaży robotów wynosił 17 % rocznie, a w 2014 r. sprzedaż wzrosła o 29 %, co stanowi najwyższy w historii wzrost sprzedaży z roku na rok[1]. Wzrost sprzedaży robotów wynika m.in. z faktu, że są one w stanie wykonywać coraz to bardziej skomplikowane zadanie, w tym te które dotychczas zarezerwowane były dla ludzi.
Dzięki rozwojowi pewnych cech autonomii i zdolności poznawczych u robotów, np. zdolności uczenia się poprzez doświadczenia i zdolności podejmowania quasi-niezależnych decyzji – zaczynają one przypominać coraz bardziej podmioty, które wchodzą w interakcje z otoczeniem i są zdolne do zmieniania go w sposób istotny (w tym i szkodliwy). W związku z tym kwestia odpowiedzialności za szkody wyrządzone przez robota samoistnie nasuwa się na myśl, stając się centralnym punktem debaty na temat rozwoju robotyki.
W rezolucji z dnia 16 lutego 2017 r. Parlament Europejski opracował zalecenia dla Komisji Europejskiej w zakresie przepisów prawa cywilnego dotyczących robotyki. Tekst daje nam bardzo ogólne pojęcie co do kierunku jaki Unia Europejska zamierza obrać w zakresie rozwoju robotyki.
Autonomiczność robota czyli zdolność do podejmowania quasi-niezależnych decyzji
Autonomiczność robota można określić jako zdolność do podejmowania decyzji i do realizacji ich w świecie zewnętrznym, niezależnie od kontroli zewnętrznej lub wpływu z zewnątrz. W związku z tym można wnioskować, że im bardziej autonomiczne są roboty, tym w mniejszym stopniu można je traktować jako narzędzia w rękach innych podmiotów (np. producentów, operatorów, właścicieli, użytkowników itp.) co skutkuje problemami z określeniem odpowiedzialności za ich działalnie.
W obecnym stanie prawnym proste roboty nie mogą ponosić odpowiedzialności - jest nią obciążony człowiek, jednak dotyczy to sytuacji gdy:
- robot, w znacznym stopniu jest narzędziem w rękach człowieka, a więc sytuacji, w których przyczynę postępowania robota można prześledzić i przypisać konkretnemu podmiotowi, którym jest właśnie człowiek, a więc np. producent, operator, właściciel lub użytkownik,
- w/w podmiot ten mógł przewidzieć daną sytuację i zapobiec szkodliwemu działaniu robota
Do szkód wywołanych przez roboty lub sztuczną inteligencję obecnie zastosowanie mają również przepisy dotyczące odpowiedzialności za produkt oraz przepisy regulujące odpowiedzialność za działania szkodliwe.
Samodzielne maszyny - większy problem
Co jednak z robotami, które cechuje lub cechować będzie duża autonomia i zdolność uczenia się? Wydaje się, że zastosowanie wobec nich w/w przepisów jest i będzie niewystarczające np. z tego względu, że na ich podstawie nie będzie możliwe określenie strony odpowiedzialnej za zapewnienie odszkodowania oraz żądanie od niej naprawienia wyrządzonej szkody.
W zakresie odpowiedzialności tych robotów UE proponuje by odpowiedzialność była proporcjonalna do poziomu instrukcji, jakie wydano takiemu robotowi, i stopnia jego autonomii, a zatem im dany robot ma większą zdolność uczenia się lub większą autonomię i im dłużej trwało „szkolenie” robota, tym większa odpowiedzialność powinna spoczywać na osobie prowadzącej szkolenie.
Unia europejska proponuje również by problem ustalania odpowiedzialności za szkody spowodowane przez coraz bardziej autonomiczne roboty rozwiązać np. poprzez ubezpieczenia obowiązkowe, w których producenci lub właściciele robotów zobowiązani byliby wykupić ubezpieczenie od szkód wyrządzonych potencjalnie przez ich roboty. System ubezpieczeń mógłby zostać uzupełniony funduszem, aby można było naprawiać szkody w przypadkach, które nie są objęte ubezpieczeniem. Konieczne jednak będzie rozstrzygnięcie przez Komisję Europejską, takich kwestii jak to czy fundusz obejmował będzie wszystkie, czy wybrane kategorie robotów, czy składka będzie płacona jednorazowo w chwili wprowadzania robota do obrotu, czy też opłacana byłaby okresowo, przez cały czas funkcjonowania robota.
Roboty otrzymają statut elektronicznych osób?
Coraz większa autonomia robotów zmusza nas również do podjęcia rozważań na temat określenia miejsca androidów w obowiązujących kategoriach prawnych. Na dzień dzisiejszy roboty nie stanowią odrębnej kategorii prawnej. Musimy sobie odpowiedzieć na pytanie, czy konieczne jest więc stworzenie nowej, właściwej robotom kategorii prawnej uwzględniającej np. stopień ich autonomii. Zastosowanie tego rozwiązania będzie wymagało również zdefiniowania pojęcia robota.
Parlament Europejski, we wspomnianej rezolucji posługuje się pojęciem statusu osoby elektronicznej, który mógłby zostać przyznany najbardziej rozwiniętym robotom autonomicznym. Nadanie robotowi statusu osoby elektronicznej mogłoby umożliwić przypisanie odpowiedzialności za naprawianie wszelkich szkód wyrządzonych przez te roboty oraz ewentualne stosowanie osobowości elektronicznej w przypadkach podejmowania przez roboty autonomicznych decyzji lub ich niezależnych interakcji z osobami trzecimi.
Czy wskazane wyżej rozwiązania zostaną przyjęte przez UE? Nie wiadomo, jednak widzimy, że UE preferuje utworzenie nowej kategorii prawnej dla najbardziej rozwiniętych robotów, zamiast ich ,,wciskanie'' do istniejących już kategorii.
Więcej pytań niż odpowiedzi
Na chwilę obecną mamy więcej pytań niż odpowiedzi. Rezolucja parlamentu stanowi początek dyskusji na temat rozwoju i miejsca robotyki i sztucznej inteligencji we współczesnym świecie. Kluczowe jest poznanie zdolności i potencjału sztucznej inteligencji - tylko dzięki temu możliwe będzie opracowanie ram prawnych, w jakich będą funkcjonować roboty.
[1] Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL))