Ludzie mają dwa rodzaje umiejętności – fizyczne i poznawcze. W przeszłości maszyny rywalizowały z ludźmi przeważnie w zakresie zdolności typowo fizycznych, ludzie zaś zachowywali olbrzymią przewagę nad maszynami w zakresie poznania. Z jednej strony zatem w rolnictwie i przemyśle automatyzowano prace czysto fizyczne, a z drugiej w sferze usług pojawiały się nowe zajęcia wymagające umiejętności poznawczych, które posiadali jedynie ludzie: uczenia się, analizowania, komunikowania się, a przede wszystkim rozumienia ludzkich emocji. Obecnie jednak w coraz szerszym zakresie tych umiejętności – w tym także w rozumieniu ludzkich emocji – sztuczna inteligencja zaczyna osiągać wyniki lepsze niż ludzie. Nie wiadomo o żadnym trzecim obszarze działania – poza sferą fizyczną i poznawczą – w którym ludzie mieliby zawsze zachowywać bezpieczną przewagę.
Obecnie zauważa się znaczący wzrost rozwoju technologii informatycznej, a przede wszystkim sztucznej inteligencji (ang. Artificial Intelligence – dalej AI). Trudno nie dostrzec jej coraz większej obecności w naszym codziennym życiu. Technologii używamy już nie tylko w bankowości, ale także w transporcie, gdzie korzystamy m.in. z autonomicznych samochodów, w pracy – gdzie maszyny mogą pomóc diagnozować problemy biznesowe, czy też w opiece zdrowotnej – rozwiązując problemy medyczne1. W latach 2010-2014 średni wzrost sprzedaży robotów wynosił 17% rocznie, w 2014 r. sprzedaż zwiększyła się o 29%, a w ciągu ostatnich dziesięciu lat trzykrotnie wzrosła liczba składanych wniosków patentowych dotyczących robotyki2. Dane te potwierdzają, że jesteśmy u progu rewolucji technologicznej.
Niezwykle istotne jest uświadomienie sobie, że rewolucja w AI nie polega tylko na tym, że komputery robią się coraz szybsze i inteligentniejsze. Napędzają ją również przełomowe odkrycia nauk przyrodniczych i społecznych. Im lepiej pojmujemy mechanizmy biochemiczne, które są podstawą ludzkich emocji, pragnień i wyborów, tym skuteczniejsze mogą być komputery w analizowaniu ludzkiego zachowania, przewidywaniu ludzkich decyzji i zastępowaniu ludzi w roli kierowców, bankierów i prawników.
Żyjemy w czasach rewolucji technologicznej, która doprowadziła m.in. do pojawienia się sztucznej inteligencji. Sztuczna inteligencja (AI) to systemy, które nie tylko naśladują ludzką inteligencję podczas wykonywania zadań, ale też stopniowo stają się w tym coraz lepsze, dzięki zbieranym w trakcie pracy informacjom. AI jest już wykorzystywana w wielu obszarach – m.in. w bankowości, transporcie czy opiece zdrowotnej – i wciąż pojawiają się dla niej nowe zastosowania.
W ostatnich latach można zauważyć wzrost rozwoju sektorów technologicznych, a w konsekwencji pojawiające się problemy prawne. Sztuczna inteligencja to maszyny skonstruowane w taki sposób, że wynik ich działań odzwierciedla wynik działań ludzkiego myślenia, a działania przejawiają cechy charakterystyczne dla ludzkiej inteligencji. Zjawisko to rozpoczęło dyskusję, jaki jest ich status prawny oraz czy można przyznać im prawa, np. związane z ochroną praw autorskich. Przepisy krajowe oraz międzynarodowe nie uregulowały jeszcze statusu sztucznej inteligencji jako twórcy ani statusu dzieł przez nią stworzonych.
W ostatnich latach Komisja Europejska opublikowała szereg komunikatów oraz wytycznych, prezentujących początkową strategię rynkową Unii Europejskiej wobec zjawiska AI. Do najważniejszych z nich zalicza się komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów: Sztuczna inteligencja dla Europy z dnia 25 kwietnia 2018 roku3, wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z dnia 8 kwietnia 2019 roku4, oraz tak zwaną białą księgę w sprawie sztucznej inteligencji z dnia 19 lutego 2020 roku5, tj. dokument przedstawiający najnowszą strategię Komisji Europejskiej w tej dziedzinie. Zaprezentowana Biała księga nie jest jeszcze propozycją prawną, ale zestawem pomysłów do dyskusji, które mogą się przełożyć na regulacje UE. Jej podstawą jest założenie, że AI będzie nieuchronnie ważną częścią gospodarki, ale nie można jej pozostawić samej sobie i przynajmniej w kluczowych obszarach potrzebne są ramy, które z jednej strony zapewnią odpowiedni nadzór ludzi, a z drugiej umożliwią współpracę wewnątrz UE w tym obszarze. Proponowane rozwiązania mają dotyczyć m.in. takich obszarów wykorzystywania AI jak ochrona zdrowia, bezpieczeństwo czy transport. Według autorów strategii, systemy muszą być przejrzyste, możliwe do zidentyfikowania i posiadać gwarantowany nadzór człowieka. Komisja Europejska podkreśla, że władze powinny być w stanie testować i certyfikować dane wykorzystywane przez algorytmy, tak samo jak testują kosmetyki, samochody, czy zabawki. Tego typu rozwiązanie obecnie funkcjonuje na Malcie, jest ono jednak opcjonalne dla przedsiębiorców6.
Prawo unijne próbuje dostosować się do nadchodzących zmian w dziedzinie technologii. Sądownictwo na razie przyznaje prawo autorskie tylko ludziom, co widoczne jest chociażby na przykładzie sprawy Infopaq, w której przyznaje się ochronę dziełom oryginalnym, a oryginalność jest skutkiem kreatywnego myślenia autora. Oznacza to, że utwór odzwierciedla jego osobowość7.
UE widzi możliwość nadania robotom osobowości elektronicznej, m.in. dlatego, że mogłyby w tym wypadku odpowiadać za szkody, jakie wyrządzą. Przepisy dotyczące osobowości elektronicznej mogłyby być podobne do uregulowań dot. osoby prawnej. Sztuczna inteligencja służyłaby jako środek do osiągnięcia określonych celów, stworzona tylko po to, aby przynosić korzyści swoim właścicielom. Przyjęto by fikcję prawną – tak jak w przypadku osób prawnych – i przyznano im niektóre prawa zagwarantowane ludziom. Miałoby to w założeniu ułatwić funkcjonowanie maszyny wśród społeczeństwa. Każdy robot stanowiłby indywidualną jednostkę zdolną ponosić odpowiedzialność za swoje czyny i zobowiązania. Postulowanym rozwiązaniem miałoby być również ustanowienie obowiązkowego ubezpieczenia i stworzenia funduszu, który zapewniłby środki na rekompensatę szkód ewentualnym ofiarom wypadków z udziałem AI.
Przyznanie takiego statusu wzbudza jednak kontrowersje. Eksperci zajmujący się robotami, przemysłem, prawem, etyką wystosowali list otwarty do Komisji Europejskiej, w którym wyrażają wątpliwości dotyczące zaproponowanych prawnych uregulowań statusu maszyn. Naukowcy podkreślili, że takie zmiany nie powinny być wprowadzone w pośpiechu. Z technicznego punktu widzenia nawet te najbardziej zaawansowane maszyny nie są jeszcze na takim etapie rozwoju, by przyznać im osobowość i odpowiedzialność za swoje czyny. Z kolei z prawnego i etycznego punktu widzenia również podano w wątpliwość, czy przyznanie statusu podobnego do statusu prawnego osób fizycznych nie będzie w opozycji do fundamentalnych praw człowieka. Przyznanie robotom prawa do godności i nietykalności godzi w prawa człowieka. Unia Europejska powinna dążyć do stworzenia takich uregulowań, aby przede wszystkim zapewnić bezpieczeństwo zdrowiu i życiu ludzi8.
Wydaje się, że możliwość zastosowania osobowości elektronicznej może nastąpić, jeśli AI byłaby zdolna do podejmowania decyzji w sposób podobny do człowieka – przede wszystkim przez zrozumienie swojego zachowania i odpowiednie nim pokierowanie. Aktualnie przyjętym rozwiązaniem jest, aby odpowiedzialność ponosił producent rzeczy, ewentualnie podmiot, który wprowadził robota do obrotu. Sztuczna inteligencja jest coraz szerzej wykorzystywana – również w sferach kreatywnych. Oznacza to, że stanie się nowym wyzwaniem dla prawa własności intelektualnej. Nawet jeśli dzieła AI spełnią ustawowe kryteria ochrony prawnoautorskiej – nie będzie można przyznać tego rodzaju twórczości takich samych praw jak człowiekowi z powodu m.in. nie spełniania przez nią wymogu bycia indywidualnym przejawem działalności twórczej człowieka, świadomości, intencjonalności, emocji swobodnej woli9. Aby maszyna – nawet ta najbardziej rozwinięta i autonomiczna – mogła zacząć funkcjonować, potrzebny jest czynnik ludzki. To człowiek tworzy algorytm, wybiera i wprowadza dane uczące. Sztuczna inteligencja nie zastąpi ludzi – to oni kreują nowe trendy oraz wyznaczają kierunki rozwoju malarstwa czy muzyki. Algorytmy uczenia maszynowego mogą co najwyżej generować nowe dzieła, które będą wariacjami obrazów namalowanych wcześniej przez ludzi10.
Jędrzej Kinalski – Adwokat
Dr Marlena Wach – Radca Prawny
1Michałowski B., Raport: Internet of Things (IoT) I Artificial Intelligence (AI) w Polsce, Instytut Sobieskiego, Warszawa 2018, https://www.sobieski.org.pl/wp-content/uploads/Raport-IoT-i-AI-w Polsce-03-2018, data dostępu: 19.11.2019 r.
2Sprawozdanie zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)), www.europarl.europa.eu/sides, data dostępu: 19.11.2019 r.
3Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów: Sztuczna inteligencja dla Europy z dnia 25 kwietnia 2018 roku (COM(2018)237/F1) (dalej jako ,,komunikat”); https://ec.europa.eu/transparency/reg-doc/rep/1/2018/PL/COM-2018-237-F1-PL-MAIN-PART-1.PDF, data dostępu: 14.03.2020 r.
4wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z dnia 8 kwietnia 2019 roku (dalej jako ,,wytyczne”); https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-al, data dostępu: 25.02.2020 r.
5Biała księga w sprawie sztucznej inteligencji z dnia 19 lutego 2020 roku (COM(2020)65/F1) (dalej jako: ,,biała księga”); https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf, data dostępu: 5.03.2020 r.
6Biała księga (… ) s 10; https://ec.europa.eu/info/intelligence-feb2020_en.pdf, data dostępu: 5.03.2020 r.
7Wyrok TS z 16.07.2009 r. C-5/08, Infopaq International A/S przeciwko Danske Dagblades Forening, EU:C:2009:465.
8www.robotics-openletter.eu, data dostępu: 19.11.2019 r.
9L.B. Solum, Legal Personhood for Artificial Intelligences, ,,North Carolina Law Review” 1992/4, Vol. 70, s. 1231-32, 1284-85.
10www.speedtest.pl/wiadomosci/news/obraz-sztuczna-inteligencja/, data dostępu: 19.11.2019 r.