Nauka i technologie

Prawne problemy ze sztuczną inteligencją. Czy prawo powstrzyma `bunt maszyn`?

Wraz z rozwojem technologii sztucznej inteligencji, pojawiają się coraz większe problemy prawne. Obecny system regulacyjny nie nadąża za szybkim tempem tworzenia nowych przepisów, które wyznaczałyby granice dla AI, a także za skomplikowanym procesem tworzenia często utajnionych algorytmów. W rezultacie obowiązujące regulacje nie są wystarczające, co prowadzi do różnych interpretacji kwestii odpowiedzialności, praw autorskich i etycznych na całym świecie. Zatem naszym obowiązkiem jest zrozumienie, przewidywanie, projektowanie i regulowanie nowej rzeczywistości, w tym również na płaszczyźnie prawnej.

Apel środowiska technologicznego o wstrzymanie prac nad AI

Pod koniec listopada 2023 r. doszło do głośnego zwolnienia i równie spektakularnego przywrócenia do pracy Sama Altmana, dyrektora wykonawczego i współzałożyciela spółki OpenAI. Altman, znany jako czołowa postać w branży AI, jest zwolennikiem bezpiecznego rozwoju tzw. ogólnej lub silnej sztucznej inteligencji (AGI). To wydarzenie przez kilka dni było tematem przewodnim światowych mediów, co skomentował nawet „Forbes”, określając je jako scenariusz, który mógłby stworzyć jedynie sztuczna inteligencja. To z kolei podgrzało już gorącą dyskusję na temat szans i zagrożeń związanych z rozwojem AI oraz możliwości regulacji prawnych w tej kwestii.

Media uproar was not caused by the publication of an open letter signed by 1000 high-tech IT sector leaders, including Elon Musk and Steve Wozniak, in March 2023 (Altman was not among them), appealing to global AI labs to immediately halt development work on technologies more powerful than GPT-4 for at least 6 months. The letter sparked significant discussion in the AI sector. The immediate impetus for this appeal was the unveiling of the fourth version of the AI program GPT (Generative Pre-trained Transformer) by OpenAI, supported by Microsoft, which had astonished users with its ability to conduct „human-like” conversations, compose songs, and create lengthy documents. The signatories of the letter warned that artificial intelligence tools pose „deep risks to society and humanity.” Of particular note is the following passage: „Contemporary AI systems are now competitive with humans in general tasks, and we must ask ourselves: should we allow machines to flood our information channels with propaganda and falsehood? Should we automate all tasks, including those that give us satisfaction? Should we develop inhuman minds that may eventually outnumber, outsmart, and replace us? Should we risk losing control of our civilization? Such decisions cannot be delegated to leaders of technology who have not been elected. Powerful AI systems should only be developed when we are certain that their effects will be positive and the associated risks will be manageable.”

Ekspertów z branży uważa, że przerwa w badaniach nad sztuczną inteligencją jest dobrym posunięciem, ale sam apel został uznany za nieprecyzyjny i nieuwzględniający poważnych kwestii regulacyjnych. Niektórym sygnatariuszom, szczególnie Elonowi Muskowi, zarzuca się hipokryzję, ponieważ na początku wspierał finansowo OpenAI, a teraz apeluje do organów regulacyjnych o kontrolę rozwoju sztucznej inteligencji w imieniu interesu publicznego.

Premierowy debiut rozwiązania ChatGPT przez OpenAI spowodował, że rywale zaczęli przyspieszać prace nad podobnymi modelami językowymi, a wiele firm rywalizuje o to, aby wdrożyć swoje produkty oparte na sztucznej inteligencji. Inwestorzy, obawiając się monopolu jednej firmy, wspierają konkurentów OpenAI, co rozpoczęło swoisty „wyścig zbrojeń”.

ChatGPT, nowa technologia, jest przedmiotem zainteresowania amerykańskich legislatorów z powodu obaw dotyczących jej wpływu na bezpieczeństwo narodowe i edukację. Policja Europol ostrzega natomiast przed potencjalnym nadużyciem systemu do phishingu, dezinformacji i cyberprzestępczości, podczas gdy rząd Wielkiej Brytanii rozważa wprowadzenie ram regulacyjnych dotyczących sztucznej inteligencji, które można dostosować. Obecnie instytucje Unii Europejskiej pracują nad rozwiązaniami prawno-regulacyjnymi w tej sprawie.

Tworzenie prawa jest utrudnione przez fakt, że badania i implementacje sztucznej inteligencji są w gestii niewielu firm, które dysponują odpowiednimi zasobami. Tworzenie systemów SI jest trudne, ale jeszcze trudniejsze jest ich demokratyzowanie.

Zagrożenia związane z AI

Od momentu pojawienia się pierwszych rozwiązań z zakresu AI, pojawiały się obawy dotyczące potencjalnych zagrożeń związanych z tą technologią. Specjaliści wskazują na wiele problemów, takich jak brak przejrzystości, wpływ na decyzje człowieka, uprzedzenia społeczne, naruszanie prywatności, zagrożenia bezpieczeństwa, koncentrację władzy w rękach korporacji, rewolucję na rynku pracy, nierówności ekonomiczne, pogorszenie relacji międzyludzkich, uzależnienie od narzędzi AI oraz dezinformację i manipulację.

Steven Feldstein, profesor na Uniwersytecie Stanowym Boise, oraz był wysoki urzędnik Departamentu Stanu USA, zauważył, że wszystkie wymienione zagrożenia związane są z potencjałem systemów sztucznej inteligencji do wspierania represyjnych reżimów i zmiany relacji między obywatelami a państwem. Przykładem tego jest strategiczne rozprzestrzenianie technologii AI przez Chiny wśród reżimów autorytarnych i nieliberalnych, co ma wpływ na globalne odrodzenie autorytaryzmu. Autokracje wykorzystują zaawansowane systemy komputerowe do manipulacji ogromnymi ilościami danych z internetu, używając technologii rozpoznawania twarzy i algorytmów do penetrowania mediów społecznościowych w celu kontrolowania dyskursu i zwalczania politycznych oponentów.

Technologia AI nie jest jedynym narzędziem wykorzystywanym przez autokratów do celów politycznych. Inne technologie, takie jak zaawansowana biometria, państwowy cyberhaking i techniki zniekształcania informacji, używane w połączeniu ze sztuczną inteligencją, mają równie niepokojące skutki. Jednak AI ma przewagę, ponieważ integruje i ulepsza funkcje innych technologii w nowy, zaskakujący sposób. Należy również podkreślić, że istnieje ograniczone zrozumienie wpływu technologii AI na politykę, co oznacza, że decydenci nadal nie traktują poważnie represyjnych konsekwencji sztucznej inteligencji.

W kontekście rozwoju sztucznej inteligencji warto zauważyć, że zmienia się sposób, w jaki autokraci tracą władzę. Liczba zamachów stanu, charakterystycznych dla okresu zimnej wojny, gwałtownie spadła i stanowi teraz zaledwie 13% przyczyn upadków „zamordystycznych” reżimów. Największym zagrożeniem dla dyktatur jest niezadowolenie opinii publicznej, wyrażane na ulicach lub przy urnach wyborczych. Wnioski dla autokratów są jasne: należy przekierować zasoby tak, aby utrzymać kontrolę nad popularnymi ruchami obywatelskimi i fałszować wybory. W tych obszarach technologia sztucznej inteligencji zapewnia kluczową przewagę. Zamiast polegać na siłach bezpieczeństwa represjonujących obywateli, ze wszystkimi kosztami i związanym z tym ryzykiem politycznym, przywódcy stosują narzędzia cyfrowe do monitorowania, inwigilowania i nękania ruchów społeczeństwa obywatelskiego oraz do zakłócania wyborów.

S. Feldstein przedstawia trzy scenariusze, w których sztuczna inteligencja może być użyteczna dla dyktatur i niedemokratycznych rządów: śledzenie powszechnego niezadowolenia i kontrolowanie masowych protestów, utrzymanie w ryzach niespokojnej prowincji, wykorzystywanie dezinformacji do obalenia przeciwników politycznych.
Rozprzestrzenianie technologii sztucznej inteligencji oraz wzrost represji cyfrowych stanowią poważne wyzwania dla liberalnych demokracji. Kluczowym pytaniem staje się, czy narzędzia sztucznej inteligencji mogą sprawić, że same demokracje staną się bardziej represyjne? Czy pokusa skorzystania z potencjału sztucznej inteligencji może ostatecznie zniszczyć demokratyczne mechanizmy? Niebezpieczeństwo jest znacznie większe dla kruchych demokracji oraz krajów o autorytarnych tendencjach. Nawet w systemach politycznych, które są pozornie demokratyczne, rządy mają wysoką motywację do wyposażania sił bezpieczeństwa w zaawansowaną technologię, zdolną do monitorowania działań przeciwników politycznych i społeczeństwa obywatelskiego (np. wykorzystanie systemu Pegasus w Polsce).

Zagadnienia prawne związane z sztuczną inteligencją generują więcej pytań niż odpowiedzi.

Demokratyczne państwa powinny przejąć inicjatywę w tworzeniu regulacji dotyczących sztucznej inteligencji, ponieważ Chiny i Rosja nie wykazują skłonności do przyjęcia międzynarodowych standardów. Proces ten będzie trudny, ponieważ postęp technologiczny często przewyższa zdolność organów regulacyjnych do opracowania odpowiednich standardów. Sztuczna inteligencja jest narzędziem o podwójnym zastosowaniu, mogącym służyć zarówno celom pozytywnym, jak i militarnym i represyjnym. Trudność polega na tym, że technologii tej nie można precyzyjnie podzielić na korzystną i szkodliwą.

AI koncentruje władzę w rękach kilku cyfrowych gigantów internetu, co stanowi dodatkową trudność regulacyjną. To pięć największych graczy – Google, Facebook, Microsoft, Apple i Amazon – decyduje o tym, w jaki sposób większość społeczeństw korzysta z internetu i co sieć im dostarcza. Kumulacja władzy technologicznej, gospodarczej i politycznej zapewnia im nadmierny wpływ w obszarach życia społecznego, takich jak władza wykonawcza, ustawodawcza, społeczeństwo obywatelskie, partie polityczne, szkoła, media oraz nauka i badania. W rezultacie korporacje technologiczne nie tylko kształtują rozwój i wdrażanie sztucznej inteligencji, ale także debatę na temat jej regulacji.

Materia sztucznej inteligencji jest tak złożona, że w jednym artykule nie da się omówić wszystkich wyzwań, jakie stwarza dla porządku prawnego. Dlatego autorzy skupią się tylko na niektórych z nich.

Według wielu ekspertów, główną przyczyną wszystkich problemów prawnych związanych z sztuczną inteligencją jest brak przejrzystości algorytmów. Algorytm można najprościej opisać jako zestaw instrukcji służący do przekształcania danych w wiedzę, podobnie jak przepis kulinarny przekształca składniki w gotowe danie. Zaawansowane algorytmy mogą błyskawicznie analizować ogromne ilości danych, takich jak te generowane przez użytkowników mediów społecznościowych, i uporządkować je w popularne tematy, wzorce zachowań, potrzeby użytkowników i inne istotne informacje. Niestety, informacje na temat działania algorytmów często są trzymane w tajemnicy, co prowadzi do coraz większych dyskusji na temat odpowiedzialności za sztuczną inteligencję.

Określenie odpowiedzialności za niekorzystne działania sztucznej inteligencji jest ważne, ale niezwykle trudne, ponieważ termin „programista” może obejmować wiele różnych ról, takich jak architekt programu, ekspert ds. produktu, a nawet menedżer odpowiedzialny za wybór personelu niekompetentnego.

Według niektórych specjalistów, sztuczna inteligencja powstaje w wyniku złożonych interakcji między różnymi uczestnikami, takimi jak programiści, projektanci, producenci, dostawcy i użytkownicy. Dlatego można uznać, że wynik sztucznej inteligencji jest efektem rozproszonej odpowiedzialności. Jednym ze sposobów zapewnienia, że sztuczna inteligencja działa na rzecz dobra, może być wdrożenie ram etycznych rozproszonej odpowiedzialności, w których wszyscy uczestnicy ponoszą odpowiedzialność za swoje działania. Jednak taki postulat bez konkretów, pozostaje tylko szlachetnym apelem.

Zaawansowane systemy sztucznej inteligencji nie tylko wykonują algorytmy zaprojektowane przez ludzi, ale także tworzą własne. Czy istniejące systemy odpowiedzialności są przygotowane na takie sytuacje, czy też potrzebne są nowe regulacje prawne? Według uchwały Parlamentu Europejskiego z 2017 r. odpowiedzialność prawną za działanie (lub zaniechanie) sztucznej inteligencji tradycyjnie należy przypisywać ludziom: właścicielom, programistom, producentom lub operatorom sztucznej inteligencji. Jednak problemy pojawiają się w przypadku zaawansowanych systemów, takich jak samouczące się sieci neuronowe. Jeśli programista nie może przewidzieć zachowania sztucznej inteligencji, ponieważ w wyniku procesów AI uległa znacznym zmianom w stosunku do pierwotnego projektu, czy może zostać pociągnięty do odpowiedzialności za to działanie? Istnieje ryzyko luki w odpowiedzialności. Proponuje się, między innymi, aby programista sieci neuronowej coraz bardziej stał się „twórcą organizmów programowych”, mającym bardzo niewielką kontrolę poza kodowaniem, ponieważ zachowanie AI odbiega od pierwotnego programowania i staje się bardziej produktem jej interakcji z otoczeniem. Ta luka w odpowiedzialności – według ekspertów – wymaga doprecyzowania i wprowadzenia odpowiednich przepisów i zasad etycznych.

Prawa autorskie stanowią istotny obszar wymagający uregulowań prawnych, zwłaszcza w kontekście sztucznej inteligencji. Istnieje obawa, że wyniki generowane przez systemy AI mogą naruszać prawa autorskie, co może prowadzić do zarzutów wobec osób publikujących te wyniki. Dodatkowo, użytkownicy mogą nieświadomie naruszać prawa autorskie, publikując dzieła AI, co może zaszkodzić ich reputacji.

W związku z tym, istnieje potrzeba uregulowania kwestii autorstwa i ochrony własności intelektualnej w kontekście sztucznej inteligencji, aby uniknąć sytuacji nieintencjonalnego naruszenia praw autorskich.

Jedną z kwestii dotyczy autorstwa końcowego produktu systemu sztucznej inteligencji. Czy jest to tylko osoba wprowadzająca dane, czy może generatywny model sztucznej inteligencji, a może kombinacja? Firma OpenAI sugeruje, że część wyników jest uzyskiwana przy użyciu generatywnych modeli sztucznej inteligencji. W związku z tym pojawia się problem prawny związany z dokładnym podaniem autorstwa, co może prowadzić do potencjalnej odpowiedzialności. Jest to istotne ze względu na przepisy wymagające, aby autor, składając stosowne oświadczenie, nie przypisywał sobie wszystkich rezultatów AI, gdy tak nie jest. Brak oświadczenia, że wykorzystano generatywną sztuczną inteligencję, może skutkować ewentualnymi zarzutami dotyczącymi wprowadzenia w błąd, gdyż te same dane wyjściowe mogą być wygenerowane dla innego użytkownika.

W kwietniu 2020 r. Parlament Europejski opublikował projekt sprawozdania, w którym stwierdzono, że dzieła stworzone przez sztuczną inteligencję powinny być uznane za „równoważne” z dziełami intelektualnymi i chronione prawem autorskim. Jednakże autorstwo powinno być przypisane osobie, która przygotowuje i publikuje utwór zgodnie z prawem, pod warunkiem że projektant technologii nie ma zastrzeżeń co do jego wykorzystania. Istotne jest również uznawanie dzieła na podstawie rezultatu twórczego, a nie procesu twórczego.

Obecnie prawa autorskie nie obejmują systemów AI, co nie jest konieczne do uznania ich kreatywności. Jednakże istnieją obawy dotyczące roszczeń do prawa własności dla utworów „wygenerowanych komputerowo”. Okres ochrony tych utworów jest zazwyczaj krótszy, a „autor” nie może dochodzić praw osobistych, takich jak prawo do bycia identyfikowanym jako twórca. WIPO odnotowało ten dylemat, sugerując, że wykluczenie tych utworów faworyzowałoby twórczość ludzką kosztem twórczości maszynowej. Zaproponowano skrócenie okresu ochrony i wprowadzenie innych ograniczeń jako rozwiązanie pośrednie.

Według amerykańskiego Urzędu ds. Praw Autorskich, prawa autorskie obejmują tylko dzieła „stworzone przez człowieka” i nie obejmują dzieł „wytworzonych przez maszynę lub proces mechaniczny bez udziału twórczego człowieka”. Istotne jest określenie „żadnego wkładu”, co prowadzi do pytania, jaki poziom zaangażowania człowieka jest konieczny, aby uznać AI za autora utworu.

Dotychczas w Chinach uważano, że dzieła wygenerowane przez sztuczną inteligencję nie mogą być objęte prawami autorskimi. Jednak w grudniu 2019 r. jeden z sądów rejonowych zmienił ten pogląd, orzekając, że artykuł stworzony przez algorytm nie może być kopiowany bez zgody. Sprawa dotyczyła raportu finansowego opublikowanego przez firmę Tencent, który został „napisany automatycznie” przez program do pisania wiadomości o nazwie Dreamwriter. Inna firma skopiowała ten artykuł bez zgody, ale po pozwie i wyroku sądowym musiała go usunąć i zapłacić 1500 jenów (216 dolarów) z tytułu „strat ekonomicznych i naruszenia praw autorskich”.

Ochrona patentowa w kontekście sztucznej inteligencji

W kontekście rozwoju sztucznej inteligencji pojawiła się kwestia ochrony patentowej, a także pytanie, czy systemy sztucznej inteligencji mogą być uznawane za wynalazców. Brytyjski naukowiec Stephen Thaler zgłosił patenty w Wielkiej Brytanii, Unii Europejskiej i Stanach Zjednoczonych, w których jako „wynalazcę” wskazał system sztucznej inteligencji DABUS, twierdząc, że jest on zdolny do samodzielnego generowania wynalazków podlegających ochronie patentowej.

Brytyjski Urząd Własności Intelektualnej był skłonny zaakceptować to, że DABUS stworzył wynalazki, ale odpowiednie przepisy wymagały, aby wynalazcą była osoba fizyczna, a nie maszyna. Europejski Urząd Patentowy (EPO), odrzucając wniosek, przyjął bardziej okrężną argumentację. Założył, że wyznaczenie maszyny jako wynalaczy nie spełniało „wymogów formalnych”. Obejmowały one podanie „nazwiska rodowego, imion i pełnego adresu wynalaczy”. Imię, jak stwierdził EPO, nie tylko identyfikuje osobę, ale umożliwia jej korzystanie z przysługujących jej praw i stanowi część jej osobowości. „Rzeczy” natomiast nie mają praw, z których mogłyby – pod określoną nazwą – korzystać. Wniosek w USA również został odrzucony, częściowo ze względu na to, że odpowiednie ustawy wielokrotnie odnosiły się do wynalaczy używających „zaimków charakterystycznych dla osób fizycznych”, takich jak „on” i „ona”. Urząd Patentów i Handlu (USPTO) potwierdził koncepcję, że „kamieniem probierczym wynalaczości” jest „akt umysłowy”, który zachodzi w „umyśle wynalaczy”. W tym sensie wynalaczy ogranicza się do osób fizycznych, a nie np. korporacji.

Simon Chesterman z Uniwersytetu Singapurskiego przedstawił interesujący wywód na temat potencjalnej osobowości prawnej sztucznej inteligencji. Zdaniem Chestermana, rozwój coraz bardziej zaawansowanych systemów AI oraz ich rosnąca rola w społeczeństwie powodują, że istnieją co najmniej dwa powody, dla których można uznać je za osoby w sensie prawnym. Po pierwsze, systemy te mogą być poddane odpowiedzialności prawnej w przypadku niekorzystnych sytuacji, takich jak naruszenie prawa, co stanowiłoby odpowiedź na potencjalne luki w odpowiedzialności wynikające z szybkości, autonomii i nieprzejrzystości działania systemów AI. Drugim powodem uzasadniającym nadanie osobowości prawnej systemom AI jest chęć zapewnienia możliwości nagradzania ich w przypadku sukcesów.

W literaturze naukowej pojawiły się rozważania dotyczące tego zagadnienia, chociaż wydają się one dość kontrowersyjne, a nawet absurdalne. W najbliższej przyszłości lepiej jest opierać się na istniejących kategoriach, zakładając, że za naruszenia prawa odpowiedzialni są użytkownicy, właściciele i producenci, a nie same systemy sztucznej inteligencji. Jednakże, zgodnie z poglądem Chestemana, może dojść do zmiany w tej kwestii, gdyż istnieje prawdopodobieństwo, że pewnego dnia pojawią się syntetyczne istoty o wartości moralnej porównywalnej z ludźmi. Ignorowanie tej wartości może wskazywać na naszą „autystyczną” tendencję, czyli brak zdolności do zrozumienia umysłów innych istot lub nawet uprzedzenie wobec nich. Warto wówczas przypomnieć hipotezę postawioną przez Alana Turinga w 1951 roku: „wydaje się prawdopodobne, że gdy rozwinie się metoda myślenia maszynowego, nasze słabe umysły zostaną szybko przewyższone”. Ian McEwen, autor książki „Machines Like Me”, sugeruje, że zanim zapytamy, czy jesteśmy w stanie stworzyć takie myślące maszyny, powinniśmy zastanowić się, czy powinniśmy w ogóle to robić.

Według prof. Jakuba Mądrego z Massachusetts Institute of Technology (MIT), sztuczna inteligencja rozwija się w szybkim tempie, ale jej modele są nietransparentne, co może prowadzić do antropomorfizacji. Profesor nie uważa jednak, że grozi nam „bunt maszyn” czy „utrata kontroli nad cywilizacją” w najbliższej perspektywie. Zamiast tego, najważniejsze jest wdrożenie regulacji prawnych, które powinny rozpocząć się od dobrowolnych „najlepszych praktyk” i dialogu. Profesor zauważa, że jeśli twórcy AI będą kierować się jedynie logiką wyścigu, to może to prowadzić do sytuacji podobnej do mediów społecznościowych, gdzie liczy się tylko maksymalizacja zysków, a niekoniecznie skutki. W obszarze AI może zapanować swoisty „Dziki Zachód”.

Lista wybranych źródeł obejmuje prace takich autorów jak R. Rodrigues, S. Chesterman, I. McEwen, A. Matthias, M. Taddeo, L. Floridi oraz S. Feldstein.

Omawiane publikacje dotyczą różnorodnych kwestii związanych z sztuczną inteligencją, takich jak prawa człowieka, osobowość prawną, aspekt etyczny oraz potencjalne skutki restrykcji.

Autorami są Robert Nogacki, radca prawny i partner zarządzający w Kancelarii Prawnej Skarbiec, specjalizujący się w doradztwie prawnym, podatkowym oraz strategicznym dla przedsiębiorców oraz Marek Ciecierski, doktor nauk politycznych i wykładowca akademicki.


Dystrybucja: pap-mediaroom.pl

Wykorzystujemy pliki cookies.
Polityka Prywatności
Więcej
ROZUMIEM