Prawo kontra technologia
Szczególnym przykładem bezradności prawa wobec technologii jest przypadek mediów społecznościowych. Konstruowane one są tak, aby jak najsilniej uzależnić użytkownika. Proponowane są treści spersonalizowane i wzbudzające emocje. Giganci technologiczni posiadają ogromne zbiory danych o swoich użytkownikach, a zasady ich przetwarzania i udostępniania nie są transparentne. Social media promują wyidealizowany styl życia, w tym perfekcyjny wygląd, często powodując kompleksy wśród użytkowników, zwłaszcza tych najmłodszych. Media społecznościowe wykorzystywane są także w celach politycznych, czego przykładem może być afera Cambridge Analytica. Firma ta za pośrednictwem Facebooka wpłynęła między innymi na wybór Donalda Trumpa na prezydenta USA oraz na wynik referendum dotyczącego wyjścia Wielkiej Brytanii z Unii Europejskiej.
W ostatnich latach jest coraz głośniej o złym wpływie mediów społecznościowych na stan psychiczny społeczeństw. Powstaje coraz więcej badań na temat. Mimo tego można odnieść wrażenie, że firmy odpowiedzialne za dostarczanie tych produktów mogą się czuć bezkarnie. Kary finansowe ujęte są w kosztach prowadzenia działalności, a kryzysy wizerunkowe szybko popadają w niepamięć. Można odnieść wrażenie, że na tym polu państwowość przegrała z korporacjami.
Unia Europejska jako potęga legislacyjna
Przepisy i regulacje Unii Europejskiej są powodem wielu komentarzy. Często wytyka im się, że są bezcelowe, oderwane od rzeczywistości lub tworzone w celu ochrony interesów konkretnych grup. Prawo europejskie równocześnie zapewnia obywatelom wysoką jakość dóbr i usług, gwarantuje prawa i swobody oraz staje w obronie najsłabszych. Pewne jest to, że Unia Europejska jest bardzo sprawna w tworzeniu przepisów prawnych. Jeśli istnieje jakaś dziedzina nieuregulowana prawnie, UE szybko potrafi ją zlokalizować i opisać.
Prawo europejskie oddziałuje także na inne podmioty międzynarodowe. Przykładowo, producenci sprzętu elektronicznego muszą spełnić wymagania techniczne określone w rozporządzeniach, aby uzyskać dostęp do europejskiego rynku. Niedawno byliśmy świadkami jak prawo europejskie „zmusiło” jedną z największych firm technologicznych do wprowadzenia znaczących zmian w swoim produkcie. Apple, na skutek regulacji Unii Europejskiej dotyczących standaryzacji ładowarek zaimplementował port USB-C w telefonach iPhone1. Zmiana z punktu widzenia konsumenta oczekiwana, lecz z perspektywy producenta niekorzystna. Wcześniej użytkownik iPhona musiał kupić specjalny kabel od Apple. Wprowadzenie bardziej uniwersalnego portu, jakim jest USB-C godzi w interesy firmy. Apple sam z siebie nie zrezygnowałby z dodatkowych zysków. Jednak UE postawiła producenta pod ścianą przedstawiając wybór: albo zrobicie produkt taki, jakiego oczekujemy, albo nie sprzedacie go na europejskim rynku wcale.
UE podjęła także próbę uregulowania działania mediów społecznościowych, przynajmniej w stosunku do własnych obywateli. Na tym polu ponownie udało się zmusić giganta do dostosowania się do własnych wymogów. W połowie 2023 roku, z inicjatywy firmy Meta, wystartowała sieć społecznościowa – Threads. Ma być ona alternatywą dla platformy X (dawniej Twitter) należącej do Elona Muska. W Europie Threads zadebiutował jednak z opóźnieniem, rozpoczęcie działalności było niemożliwe z powodu niezgodności z przepisami odnośnie ochrony danych osobowych2. Spełnienie wymagań i wprowadzenie rozwiązań zabezpieczających interesy użytkowników zajęło około pół roku.
Powyższe przykłady pokazują, że odpowiednie regulacje prawne mogą wymusić pożądane działania nawet największych firm technologicznych. Przepisy muszą być jednak wprowadzone z odpowiednim wyprzedzeniem. Wymaga to spojrzenia w przyszłość i przewidzenia, w jakim kierunku technologia może się rozwinąć i jakie ewentualne zagrożenia może powodować. Podczas tworzenia prawa należy też pamiętać, aby przepisy nie były zbyt restrykcyjne, ponieważ mogą spowolnić lub nawet uniemożliwić rozwój technologii. Z takimi właśnie wyzwaniami musi zmierzyć się świat w kontekście rewolucji sztucznej inteligencji.
Rewolucja AI kontra Unia Europejska
Jednym z najczęściej podejmowanych tematów rozmów w roku 2023 był temat sztucznej inteligencji. Wiele ludzi uważa, że AI powstała teraz, jednak jej historia jest odleglejsza. Początki sztucznej inteligencji datuje się na lata 50. ubiegłego wieku. W tym czasie kształtowały się teoretyczne pojęcia w tej tematyce. W latach 60. i 70. tworzono pierwsze algorytmy grające w gry, chatboty oraz autonomiczne pojazdy. Lata 80. to okres określany jako „boom AI”. Nastąpił wtedy wzrost zainteresowania tą technologią oraz rozwój technik głębokiego uczenia. Ówczesne modele były już w stanie uczyć się na własnych błędach i podejmować niezależne decyzje. W latach 1987-1993 nastąpiła „zima sztucznej inteligencji”. W okresie tym zainteresowanie było niskie i nie odnotowano znaczących postępów w pracy nad AI. Późne lata 90. i pierwsza dekada XXI wieku przyniosła imponujące postępy w badaniach i wdrażaniu sztucznej inteligencji. W 1997 roku algorytm stworzony przez firmę IBM pokonał pokonał mistrza świata w szachach, Garego Kasparova. W tym okresie Facebook i Twitter zaczęły korzystać z algorytmów do personalizowania treści wyświetlanych użytkownikom. Sztuczna inteligencja pojawiła się w wielu domach zwykłych ludzi jako wirtualni asystenci, np. Siri od Apple3.
Okres rozwoju AI, w którym jesteśmy obecnie, można określić jako specjalizacja AI oraz ogólna sztuczna inteligencja. Tworzy się równocześnie rozwiązania ściśle skoncentrowane na wykonywaniu konkretnej czynności, np. diagnozowanie chorób i jednocześnie próbuje się stworzyć sztuczną inteligencję na wzór człowieka np. ChatGTP. Oddanie do publicznego użytku tego produktu w listopadzie 2022 zmieniło globalny sposób postrzegania sztucznej inteligencji. ChatGTP to duży model językowy, który swoimi treściami imituje wypowiedzi ludzkie. Jest w stanie generować kod programistyczny, wymyślać historie, streszczać teksty czy po prostu z nami rozmawiać. Produkt ten unaocznił szerszej publiczności, na jakim jesteśmy etapie rozwoju sztucznej inteligencji. Firmy technologiczne rywalizują ze sobą o to, kto dostarczy lepszy produkt oparty na AI. Powoduje to gwałtowny przyrost nowych narzędzi oraz rozwój funkcjonalności już istniejących.
Sztuczna inteligencja wspiera lub zastępuje ludzi w coraz większej ilości zadań. Możliwości użycia są bardzo szerokie, wzbudzają też kontrowersje. Coraz częściej mówi się o potrzebie uregulowania wielu zagadnień związanych z AI, takich jak:
- w jakich sytuacjach i w jakim zakresie można używać AI,
- gdzie leży granica między ludzką prywatnością a algorytmem,
- do kogo należą prawa autorskie wygenerowanych automatycznie treści,
- jak zapobiegać naruszeniom wizerunku.
Unia Europejska wydaje się być świadoma pilnej potrzeby stworzenia regulacji, dotyczących produktów opartych na sztucznej inteligencji. W kwietniu 2021 roku, czyli półtora roku przed premierą ChatuGPT, Parlament Europejski i Rada Europejska opublikowały dokument European Union’s Artificial Intelligence Act4 (dalej AI Act). Jest to pierwsza na świecie próba określenia, jak należy używać systemów opartych o AI tak, aby były bezpieczne oraz z poszanowaniem fundamentalnych praw unijnych obywateli5.
Obecnie prace legislacyjne są w końcowej fazie wdrażania. Po uchwaleniu ustawy większość jej przepisów zacznie obowiązywać po dwóch latach6. Daje się w ten sposób czas na dostosowanie się do nowych norm prawnych. Jednocześnie zachęca się do wdrażania wymagań, opisanych w ustawie, przed ostatecznym terminem. W tym celu stworzono AI Pact – porozumienie, które ma zachęcać przedsiębiorstwa do dobrowolnego informowania o wdrażanych procesach i praktykach, aby przygotować się do zapewnienia zgodności i zagwarantować wiarygodność projektowania, rozwoju i stosowania sztucznej inteligencji7.
Co zawiera EU AI Act?
W rozporządzeniu zdefiniowano wymagania, które będą musiały być spełnione przez produkty oparte na sztucznej inteligencji. Rygorystyczność przepisów ma zależeć od poziomu potencjalnego ryzyka i wpływu, wywartego poprzez wykorzystywanie oprogramowania. Wydzielono w ten sposób cztery grupy systemów: zakazane, wysokiego ryzyka, ograniczonego ryzyka i minimalnego ryzyka/braku ryzyka.
Systemy zakazane to takie, które stanowią zagrożenie dla podstawowych praw i wolności człowieka. Ich stosowanie na terenie Unii Europejskiej ma być zabronione. Są to systemy służące do:
- kategoryzacji biometrycznej wykorzystujące wrażliwe cechy (np. przekonania polityczne, religijne, orientację seksualną, rasę),
- pobierania wizerunku twarzy z Internetu lub nagrań z kamer przemysłowych w celu tworzenia baz danych umożliwiających rozpoznawanie twarzy,
- rozpoznawania emocji w miejscu pracy i nauki,
- tworzenia punktacji społecznej opartej na zachowaniach społecznych lub cechach osobistych (social scoring),
- manipulacji oraz systemy wykorzystujące ludzkie słabości (ze względu na ich wiek, stan zdrowia, niepełnosprawność, sytuację społeczną lub ekonomiczną) w celu osiągnięcia korzyści.
Prawodawcy europejscy zawarli kilka wyjątków, dla których część z zakazanych systemów może być wykorzystana. Na przykład organy ścigania, uzyskując zgodę sądową mogą użyć „zakazanej sztucznej inteligencji” w celu ścigania osób podejrzanych o popełnienie poważnych przestępstw, szukania osób zaginionych lub zapobiegania atakom terrorystycznym8.
Systemy wysokiego ryzyka to takie, które mogą istotnie zagrażać życiu, zdrowiu, bezpieczeństwu, środowisku, demokracji lub praworządności. Zakwalifikowano do nich systemy:
- mające wpływ na infrastrukturę krytyczną, związaną np. z dostępem do wody, gazu czy energii elektrycznej,
- podejmujące decyzje rekrutacyjne w pracy lub edukacji
- wykorzystywane w medycynie
- stosowane przez organy ścigania, kontroli granic i administracji.
Wdrażanie rozwiązań zakwalifikowanych do tej grupy będzie możliwe po spełnieniu rygorystycznych obowiązków. Dostawca musi przewidzieć i opisać potencjalne ryzyka związane z zastosowaniem produktu, analogicznie do listy efektów ubocznych stosowania leków. Wymagane jest stworzenie rozbudowanej dokumentacji technicznej oraz zapewnienie nadzoru człowieka nad systemem. Dodatkowo dostawca musi przeprowadzić testy odporności na cyberataki, zapewnić wysoki poziom cyberbezpieczeństwa np. w kwestii ochrony danych. Wymagane będzie także zarejestrowanie produktu w centralnym unijnym rejestrze, a w celach nadzoru należy raportować np. poważniejsze incydenty lub błędy. Możliwe także będzie zaskarżenie decyzji systemu AI wysokiego ryzyka do nowo utworzonego organu.
Systemy ograniczonego ryzyka dotyczą przede wszystkim generatywnej sztucznej inteligencji np. chatbotów, generatorów obrazu czy dźwięku. Według IA Act, treści wygenerowane cyfrowo muszą być odpowiednio oznaczone, tak aby odbiorca mógł jednoznacznie stwierdzić, czy materiał został stworzony przez sztuczną inteligencję, czy nie.
Systemy minimalnego ryzyka/braku ryzyka to wszystkie te, które nie kwalifikują się do wyżej wymienionych kategorii. Mogą to być np. filtry antyspamowe, systemy rekomendacji lub produkty automatyzujące czynności. Wdrażanie rozwiązań z tej grupy ma być nieograniczone prawnie, lecz zachęca się do stosowania praktyk wymaganych przy systemach wyższego zagrożenia9.
W rozporządzeniu przewidziano kary finansowe za naruszenie przepisów IA Act o wysokości do 30 mln euro lub 6% rocznego obrotu10. Brana ma być pod uwagę wyższa z wartości (liczbowa lub procentowa). Wysokość kary ma być uzależniona od kategorii, do której zakwalifikowano produkt.
Prawo jako zasób strategiczny
AI Act będzie przecierał szlaki w kwestii regulacji sztucznej inteligencji i wraz z upływem czasu wychodzić będą jego niedoskonałości. Ponadto rzeczywistość bardzo szybko się zmienia. W ciągu dwóch lat, czyli w okresie przejściowym między uchwaleniem prawa a jego powszechnym obowiązywaniem, bardzo wiele może się zmienić w samej kwestii rozwoju sztucznej inteligencji. Niektóre zagadnienia mogą stać się nieaktualne i pojawią się nowe, wcześniej nieokreślone. Pewne jednak jest to, że od czegoś trzeba zacząć. Uważam, że AI Act jest dobrym punktem wyjścia. Benchmarkiem, z którego mogą korzystać inne państwa. Stworzenie czegoś po raz pierwszy jest trudne, ale gdy rozwiązanie się przyjmie, ma duży potencjał do kształtowania rzeczywistości.
W zakresie sztucznej inteligencji sami producenci często podnosili głos o konieczności wprowadzenia jakichś regulacji. Biznes daje znać, że potrzebuje jasno określonych zasad, co można, a czego nie. Przykładowo, chatboty bardzo „pilnują się”, żeby nie generować treści kontrowersyjnych. Nie przeklinają, nie tworzą wypowiedzi, które mógłby obrazić jakiekolwiek grupy ze względu na rasę, płeć, wyznanie czy orientację seksualną. Firmy same nałożyły na siebie takie ograniczenia, aby nie ucierpiał ich wizerunek. Ta autorefleksja jest dobrą wróżbą na przyszłość. Producenci dostrzegają, że technologie oparte o AI mogą być niebezpieczne dla nich samych. Jednak trudno jest przewidzieć wszystkie przypadki nieprawidłowego działania, zwłaszcza w zakresie sztucznej inteligencji, której szczegółowych zasad działania wciąż do końca nie znamy.
Regulacje prawne, które mówią wprost, czego robić nie wolno, ułatwiają zadanie deweloperom. Już na etapie projektowania zaimplementują takie rozwiązania, które będą zapobiegać niechcianym „efektom ubocznym”. Dodatkowo będzie ciążyła na nich odpowiedzialność prawna, a co za tym idzie kary finansowe za przypadki użycia AI w sposób niewłaściwy. Wywiera to więc presję na tworzenie dobrych i kompletnych rozwiązań. Większy nacisk stawiany będzie na dokładne przetestowanie i opisanie działania programu przed jego opublikowaniem. Regulacje są też sposobem na kształtowanie rzeczywistości. Jeśli zasady ustalone zostaną jednoznacznie, firmy technologiczne chcąc sprzedać swój produkt będą musiały się do nich dostosować. W momencie gdy inne państwa także stwierdzą, że te rozwiązania są potrzebne, wprowadzą je u siebie. Wtedy takie przepisy staną się międzynarodowym standardem. Niemal niemożliwe stanie się tworzenie niezgodnie z tym nurtem.
Świat nie jest jednak jednorodny. Wątpliwe jest, aby państwa niedemokratyczne podeszły do kwestii regulacji AI w sposób identyczny jak Unia Europejska. Chiny to jeden z największych graczy w obszarze rozwoju sztucznej inteligencji. Chińczycy wykorzystują algorytmy do inwigilacji obywateli np. w formie powszechnego social scoringu. AI Act jasno określa, że ten schemat użycia AI jest zabroniony na terenie Unii. W tym kontekście ustawa o sztucznej inteligencji może być też manifestem wartości, głoszonych przez dany region. W Europie i Stanach Zjednoczonych bardzo ceni się wolność jednostki, a prawo ma tę wolność chronić. Podobnie jest w przypadku AI Act. W dokumencie skupiono się na podejściu, że sztuczna inteligencja jest dla ludzi, a nie na odwrót. Jak podejdą do tej kwestii Chiny?
Sztuczna inteligencja może stać się kolejnym przyczynkiem do polaryzacji świata. Europa powinna promować swoje rozwiązania, wręcz stworzyć z nich „towar eksportowy”. Dotrzeć ze swoim przekazem do jak największej części świata. W czasach globalnej rywalizacji wszystko, nawet akty prawne, mogą być zasobem strategicznym kształtującym świat.