Karta Praw AI(SI)
W październiku 2022 roku Biuro Polityki Naukowej i Technologicznej Białego Domu opublikowało Kartę Praw AI (SI – Sztucznej Inteligencji – pol.) (AI Bill of Rights) – dokument przedstawiający wytyczne dla użytkowania i wdrażania zautomatyzowanych systemów sztucznej inteligencji. Jego celem jest ograniczenie negatywnych efektów, jakie intensywny rozwój sztucznej inteligencji może wywrzeć na amerykańskie społeczeństwo obywatelskie, jego wolności osobiste oraz prawo do prywatności.
Dokument określa wykorzystywanie danych, technologii oraz zautomatyzowanych systemów jako jedno z „największych wyzwań stojących przed dzisiejszą demokracją”, zwracając uwagę na zbyt częste wykorzystywanie ich do „ograniczania możliwości” społeczeństwa i „uniemożliwiania dostępu do krytycznych zasobów lub usług”. Wyszczególnia przykłady szkodliwych społecznie praktyk, takich jak: niekontrolowane gromadzenie danych w mediach społecznościowych, śledzenie aktywności użytkowników bez ich zgody czy odzwierciedlenie negatywnych stereotypów przy zatrudnianiu i podejmowaniu decyzji kredytowych.
Karta Praw AI składa się z pięciu zasad oraz powiązanych z nimi praktyk, obejmujących tematykę: bezpiecznych i efektywnych systemów, ochrony przed dyskryminacją algorytmiczną, prywatnością danych, informowania użytkowników kiedy dany system jest używany oraz rezygnacji z automatycznego systemu na rzecz „ludzkiej alternatywy”. Dokument podkreśla konieczność opracowywania systemów przy konsultacjach z różnymi grupami interesu, społecznościami i ekspertami; przeprowadzania niezbędnych testów przed ich wdrożeniem; zastosowania domyślnych, wbudowanych mechanizmów ochrony prywatności użytkownika czy zapewnienia zrozumiałych i klarownych informacji dotyczących funkcjonowania systemu.
Globalny wyścig regulacyjny
Niemniej jednak Karta Praw AI nie posiada mocy prawnej – jest jedynie niewiążącą „białą księgą”. Co ważne, amerykańska administracja podkreśla w dokumencie, że wyznaczone wytyczne powinny mieć zastosowanie do zautomatyzowanych systemów mogących znacząco wpływać na prawa społeczeństwa USA, z wyłączeniem wielu przemysłowych i operacyjnych zastosowań sztucznej inteligencji. Przedstawiona karta ma służyć jako plan rozwoju dodatkowych standardów technicznych i praktyk, jednak w żaden sposób nie nakłada określonych wymogów regulacyjnych.
Stawia to dokument w kontrze do unijnego rozporządzenia AI Act, europejskiej ustawy o sztucznej inteligencji. 14 czerwca 2023 roku Parlament Europejski przyjął treść regulacji dotyczącej sztucznej inteligencji i obecnie ustawa kierowana jest do rozmów trójstronnych pomiędzy Parlamentem Europejskim, Radą Unii Europejskiej oraz Komisją Europejską, po których utworzony zostanie ostateczny akt prawny. Jego wdrożenie nastąpi najpewniej w 2025 roku.
Zgodnie z założeniami przedstawionymi w AI Act, to Komisja Europejska i stworzone AI Office mają być centralnymi instytucjami, do których będą zwracać się firmy technologiczne z silną pozycją rynkową oraz instytucje publiczne, korzystające z systemów bazujących na sztucznej inteligencji. Wszystkim obywatelom zapewniony zostanie podstawowy dostęp do informacji o systemach używanych przez korporacje i instytucje. Unijne horyzontalne podejście do regulacji AI wyszczególnia cztery główne poziomy ryzyka związane ze sztuczną inteligencją. Nadrzędnym celem jest ochrona interesów obywateli, przy jednoczesnym uniknięciu ograniczania sektora badań nad AI czy kwestii obronności.
Stawia to Unię Europejską w czołówce globalnego wyścigu regulacyjnego, związanego z generatywną sztuczną inteligencją. Jak zaznacza World Economic Forum, obecnie blisko 60 państw posiada krajowe strategie AI, poruszające również kwestie odpowiedzialnego społecznie korzystania z tej technologii. Również UNESCO i OECD określiły zasady prawidłowego wykorzystania sztucznej inteligencji.
Chiny także dołączają do międzynarodowego wyścigu. Jak informuje Financial Times, Chińska Administracja Cyberprzestrzeni (CAC) zamierza stworzyć system, zmuszający firmy do uzyskania specjalnej licencji przed wprowadzeniem utworzonych przez nie generatywnych modeli sztucznej inteligencji. System stanowić ma część polityki zmierzającej do sformalizowania podejścia regulacyjnego Chin wobec najnowszej technologii. Opublikowany w kwietniu projekt przepisów zaznacza, że treści AI powinny „ucieleśniać podstawowe wartości socjalistyczne” i nie zawierać niczego, co „obala władzę państwową, opowiada się za obaleniem systemu socjalistycznego, podżega do podziału kraju lub podważa jedność narodową”. Projekt wymaga również od firm korzystania z prawdziwych, dokładnych, obiektywnych i różnorodnych danych do „szkolenia” AI.
Zdaniem ekspertów wypowiadających się dla Financial Times, przedstawione regulacje koncentrują się przede wszystkim na kontroli treści, a zgodnie z zamiarem Komunistycznej Partii Chin chińskie przedsiębiorstwa będą musiały włożyć więcej wysiłku w filtrowanie rodzaju danych wykorzystywanych do „trenowania” AI.
Big Tech vs regulatorzy
W lipcu amerykańska administracja oświadczyła, że otrzymała dobrowolne zobowiązania od siedmiu czołowych firm technologicznych, mające na celu zarządzanie ryzykiem stwarzanym przez sztuczną inteligencję w duchu Karty Praw AI. Jak zaznacza Filip Konopczyński, analityk ds. regulacji sztucznej inteligencji i nowych technologii z Fundacji Panoptykon, Stany Zjednoczone posiadają bardzo elastyczne podejście do innowacji, przejawiające się chociażby we wsparciu, jakie od samego początku mogą otrzymywać firmy od instytucji publicznych. Amerykański sektor publiczny pozostawia przedsiębiorstwom wiele swobody w zakresie prowadzenia działalności, wdrażanych modeli biznesowych czy sposobów na komercjalizację.
„Na poziomie tworzenia prawa i polityk »mariaż« sektora prywatnego i publicznego jest bardzo bliski”, zaznacza Konopczyński. „Dlatego kiedy pod koniec lipca prezydent Biden i VP [wiceprezydentka – red.] Harris ogłaszali stworzenie AI safeguards (zabezpieczeń), którymi dobrowolnie mogą kierować się firmy i badacze z sektora AI, to efekty prac zaprezentowali wspólnie z szefami takich firm jak Amazon, Alphabet, Meta czy Microsoft, ale także mniejszych podmiotów: OpenAI, Anthropic, czy Inflection”.
Według analityka Panoptykonu, amerykańscy giganci technologiczni nie powinni mieć problemu z przestrzeganiem ustalonych reguł, ponieważ najprawdopodobniej mieli wpływ na ich powstanie. „Dodatkowo zasady są na tyle ogólne, że łatwo będzie wykazać podejmowanie kroków w tym kierunku. To pozwoli na utrzymanie status quo, z którego korzystają liderzy sektora AI. Taka sytuacja będzie trwała aż do momentu powstania wiążących regulacji, lub pojawienia się linii orzeczniczej niekorzystnej dla tych firm (czyli dobrej dla osób poddanych działaniom systemów i modeli AI)”.
Obywatele USA chcą większych regulacji?
Na początku sierpnia 2023 roku koalicja organizacji obywatelskich, technologicznych i praw człowieka wysłała list do Białego Domu, wzywając administrację Bidena do przekształcenia Karty Praw AI w wiążącą politykę rządową, dotyczącą wykorzystania sztucznej inteligencji przez agencje federalne. Podkreśla się w nim, że rząd federalny nie powinien korzystać z systemu sztucznej inteligencji, chyba że „jest on skuteczny, bezpieczny i niedyskryminujący”.
Pismo zostało wystosowane po tym, jak w lipcu Biały Dom poinformował o opracowywaniu rozporządzenia wykonawczego, dotyczącego odpowiedzialnych innowacji w zakresie sztucznej inteligencji (AI EO). Jak podkreślają autorzy listu, władza wykonawcza Stanów Zjednoczonych powinna zostać zobowiązana do przestrzegania Karty Praw AI na drodze prawnej, a sam AI EO – wyznaczyć intensywny harmonogram przedstawienia planów wdrożeniowych do Biura Wykonawczego Prezydenta w ciągu 90 dni oraz do pełnego wdrożenia ustaleń dotyczących AI w ciągu roku od wydania dokumentu.
List został podpisany przez dziewięciu sygnatariuszy, w tym m.in. Center for American Progress, Center for Democracy & Technology, NAACP i Leadership Conference on Civil and Human Rights.
Kongres Stanów Zjednoczonych również zastanawia się nad tym, w jaki sposób uregulować sztuczną inteligencję. Przywódca większości w Senacie, Chuck Schumer, przedstawił w czerwcu wytyczne mające skierować Kongres na ścieżkę kompleksowego ustawodawstwa dotyczącego sztucznej inteligencji. Dokument „SAFE Innovation Frame” przedstawia legislacyjne podejście demokraty do tematyki AI, wyszczególniając pięć zasad, według których powinno się patrzeć na sztuczną inteligencję: bezpieczeństwo, odpowiedzialność, zgodność systemów z fundamentalnymi wartościami demokratycznymi, wspieranie innowacyjności AI w USA oraz dostarczanie wystarczająco klarownych informacji o sposobie działania systemu rządowi federalnemu.
Według Politico, Schumer nastawiony jest na stworzenie kompleksowych przepisów dotyczących sztucznej inteligencji i w ramach przygotowań ogłosił plany zwołania serii „forów AI Insight”. Spotkania miałyby zlecić czołowym ekspertom AI zapoznanie Kongresu z tak różnymi tematami, jak siła robocza, bezpieczeństwo narodowe, prywatność, wyjaśnialność, a nawet „scenariusze zagłady”.
Jak zaznacza Filip Konopczyński: „Bez regulacji prawa w randze obowiązującego na poziomie krajowym – a najlepiej międzynarodowym – firmy tworzące AI nie będą dbały o to, aby ich produkty były zgodne z naszymi prawami czy wartościami”.
Transatlantycka umowa AI
Pod koniec maja 2023 roku podczas czwartego posiedzenia Rady ds. Handlu i Technologii (TTC) w Szwecji wiceprzewodnicząca wykonawcza UE Margrethe Vestager poinformowała o tworzącym się Kodeksie postępowania w zakresie sztucznej inteligencji między USA a UE.. Jak zaznaczono w wydanym oświadczeniu: „Biorąc pod uwagę szybkie tempo rozwoju technologicznego, Unia Europejska i Stany Zjednoczone zobowiązały się do pogłębienia współpracy w kwestiach technologicznych, w tym w zakresie sztucznej inteligencji (AI), 6G, platform internetowych i technologii kwantowych”.
Zadeklarowano wspólne zaangażowanie w budowanie opartego na ryzyku podejścia do sztucznej inteligencji i powołano trzy grupy ekspertów, koncentrujące się na kwestiach: terminologii i taksonomii AI, współpracy w zakresie standardów i narzędzi sztucznej inteligencji oraz monitorowania i oceny pojawiających się zagrożeń dotyczących AI.
Zróżnicowane podejścia Stanów Zjednoczonych i Unii Europejskiej dotyczące regulacji sztucznej inteligencji stanowią przeszkodę w tworzeniu wspólnych wytycznych, związanych z jej wykorzystaniem. O ile USA skupia się na tworzeniu luźnych wskazówek oraz przedstawianiu pozytywnych praktyk, Unia Europejska zdecydowała się na wprowadzenie ram prawnych, obowiązujących kraje członkowskie i firmy technologiczne tworzące programy oparte na AI.
Zdaniem Konopczyńskiego, istnieją trzy główne różnice między amerykańskim a europejskim podejściem: „Po pierwsze, dzisiejszy przemysł AI jest zdominowany przez firmy amerykańskie, drugie miejsce zajmują Chiny, a Europa dopiero stara się nadgonić ten dystans. W związku z tym rola Big Techu w polityce naukowej i gospodarczej jest wiodąca, co obok pewnych zalet rodzi szereg zagrożeń, zarówno dla obywateli USA, jak i innych krajów. Po drugie, sytuacja polityczna i system prawny USA bardzo ogranicza możliwość wprowadzenia regulacji, które mogłyby uregulować nowe technologie w interesie obywateli”.
Analityk Panoptykonu podkreśla w tym miejscu rolę lobbystów sektora prywatnego, którzy korzystają z silnie spolaryzowanej sceny politycznej. Skutkuje to ograniczonym polem działania dla administracji federalnej. „Tworzone akty prawne są ograniczone zarówno przez konstytucję, jak i coraz mniej przychylne administracji federalnej orzecznictwo Sądu Najwyższego oraz ramy czasowe (prezydenckie dekrety mogą być odwołane przez Prezydenta w każdej chwili)”.
Trzecim wyróżnionym przez Konopczyńskiego czynnikiem jest specyfika systemu prawnego USA. “Faktyczny wpływ na to, jakich reguł muszą przestrzegać firmy, administracja czy obywatele mają sądy: stanowe i federalne. Dlatego niezależnie od nowych regulacji, firmy z sektora AI będą musiały liczyć się z pozwami, dotyczącymi m.in. prywatności, praw autorskich czy bezpieczeństwa produktów, które konsumenci, ale także konkretne Stany mogą przeciw nim kierować”.
Niemniej jednak zasygnalizowanie amerykańsko-europejskiego kodeksu postępowania w zakresie AI wskazuje, że zarówno Bruksela, jak i Waszyngton są gotowe do rozmów na temat kształtowania spójnej, transatlantyckiej strategii postępowania z rozwijającą się w błyskawicznym tempie sztuczną inteligencją. Dzięki wypracowaniu konsensusu dotyczącego podstawowych wartości w zakresie technologii, jakimi kierują się zarówno USA jak i UE, partnerzy będą w stanie promować podstawy globalnego zarządzania AI, które nie naruszałyby ich własnych ram regulacyjnych.
Transatlantyckie porozumienie może stać się podstawą międzynarodowych dyskusji dotyczących ram stosowania i rozwoju AI, a także tworzyć przyszłe wytyczne dla pozostałych państw demokratycznych oraz sojuszników. Materializuje się to choćby w procesie powiązania kodeksu postępowania w zakresie sztucznej inteligencji z Hiroshima AI Process – inicjatywą państw grupy G7, forum dyskuSsyjnym skupiającym się przede wszystkim na generatywnej AI.