Close

Znaczenie koncepcji godnej zaufania
sztucznej inteligencji
w dobie AI Act

20 maja, 2024
Maciej Chojnowski

Wbrew rozpowszechnionemu przekonaniu godna zaufania sztuczna inteligencja nie sprowadza się wyłącznie do etyki AI. Zasadniczymi komponentami tej koncepcji są bowiem także prawo i solidność techniczna. Jednak wymogi wynikające z tych trzech obszarów również nie wyczerpują sensu trustworthy AI. Staje się on w pełni zrozumiały dopiero wtedy, gdy uwzględnimy strategiczne wskazania obejmujące edukację, rozwój infrastruktury i inwestycje.

Przyjęcie przez Parlament Europejski w marcu 2024 r. Aktu o sztucznej inteligencji wywołało gorące dyskusje o wpływie nowego prawa na unijną, a także globalną gospodarkę cyfrową. Nic w tym dziwnego, skoro AI Act to pierwsze na świecie rozporządzenie całościowo regulujące rozwój i użytkowanie tej technologii. Kłopot w tym, że w mnogości opinii dotyczących interpretacji poszczególnych zapisów Aktu czy sposobów zapewnienia zgodności z jego wymogami z pola widzenia zniknął podstawowy kontekst unijnego rozporządzenia, czyli koncepcja godnej zaufania sztucznej inteligencji.

AI Act to nie wszystko

AI Act nie powstał bowiem w normatywnej próżni i jest powiązany zarówno z innymi regulacjami obowiązującymi w UE, jak i – co tutaj kluczowe – właśnie z nadrzędną koncepcją trustworthy AI. Obejmuje ona trzy podstawowe elementy składowe: etykę, solidność techniczną i prawo. Dlaczego zatem zazwyczaj pomija się ją w dyskusjach o nowej regulacji? Odwołuje się do niej przecież wprost sama Preambuła AI Act!

Odpowiedź na to pytanie wydaje się kryć w dominującym współcześnie legalistycznym paradygmacie myślenia o obszarze governance oraz dość formalistycznym rozumieniu zgodności z wymogami prawa. Takie postrzeganie systemu normatywnego skutkuje bowiem absolutyzacją „twardych” przepisów (jak AI Act), zaś marginalizacją tego, co zwykło się określać mianem soft law, czyli np. etyki sztucznej inteligencji (uznawanej – jako narzędzie samoregulacji – za zbyt słabą, by móc zagwarantować przestrzeganie zawartych w niej zapisów).

Faktycznie, jeśli porównać obligatoryjność unijnego rozporządzenia z dobrowolnością Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji, jasne jest, który z obu dokumentów posiada większą moc sprawczą. Takie postawienie sprawy, choć zrozumiałe, ma jednak także skutki uboczne właśnie w postaci odstawienia na boczny tor całej koncepcji trustworthy AI. Ze względu na to bowiem, że została ona opisana w dokumencie nieobejmującym przepisów prawa, utożsamia się ją często po prostu wyłącznie z etyką AI, pojmowaną – co istotne – jako tymczasowy i ułomny mechanizm regulacyjny, użyteczny co najwyżej do chwili wejścia w życie właściwych przepisów.

W pułapce compliance

Tymczasem etyka AI w takiej postaci, w jakiej została przedstawiona w Wytycznych dotyczących godnej zaufania sztucznej inteligencji, to nie tylko narzędzie samoregulacji, ale także zbiór wartości, zasad i wymogów stanowiących zasadniczy punkt odniesienia dla zrozumienia, czemu ma służyć nowe prawo. Tym samym skupianie całej uwagi na przepisach AI Act bez dogłębnego zrozumienia kontekstu, z którego biorą one swój początek, może skutkować zredukowaniem treści rozporządzenia do dość mechanicznie pojętej matrycy regulacyjnej. W takim scenariuszu głównym zadaniem organizacji stanie się spełnienie obowiązku compliance, jednak zniknie świadomość, czemu właściwie ma on służyć.

Nie powinno więc być zaskoczeniem, że rozważania na temat nowego prawa prowadzone z pominięciem jego szerszego tła nierzadko skutkują z jednej strony postawami podającymi w wątpliwość w ogóle jego zasadność (jako rzekomymi przejawami unijnego przeregulowania i represyjnego podejścia do przedsiębiorców), z drugiej zaś szczególną „kreatywnością” ukierunkowaną na obchodzenie zawartych w nim zapisów. Przywrócenie właściwego rozumienia koncepcji trustworthy AI do dyskursu dotyczącego sztucznej inteligencji jest zatem w tej sytuacji zadaniem o znaczeniu pierwszorzędnym.

Trustworthy AI według UE

Pojęcie godnej zaufania sztucznej inteligencji zostało zdefiniowane w opublikowanych w kwietniu 2019 r. Wytycznych w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji, zawierających wizję normatywną określającą pożądany kierunek rozwoju i zastosowania AI w Unii Europejskiej. Chodzi w niej o to, aby technologia AI była w Europie tworzona i użytkowana zgodnie z zasadami demokracji i praworządności oraz z poszanowaniem praw podstawowych, tak by obywatele mogli z niej korzystać bez obaw, że zostaną systemowo pokrzywdzeni.

Wytyczne podkreślają, że podejście do rozwoju sztucznej inteligencji oparte na koncepcji trustworthy AI ma na celu wspieranie odpowiedzialnych i zrównoważonych innowacji AI, a zarazem uczynienie z Europy lidera w budowaniu sztucznej inteligencji wspierającej dobrostan indywidualny oraz dobro wspólne. Zwracają także uwagę, że omawiana koncepcja może być zrealizowana tylko wtedy, gdy urzeczywistniane są jej wszystkie trzy komponenty.

I tak zgodność z prawem jest niezbędna, by można było mówić o godnej zaufania AI, ale do tego nie wystarcza. Podobnie jest z pozostałymi obszarami: solidnością i etyką. Aby były godne zaufania, systemy AI muszą być solidne, czyli bezpieczne zarówno pod względem użytych technologii, jak i dopasowania do społecznego otoczenia, w którym działają. Z kolei etyka pozwala wykroczyć w myśleniu o AI poza znaną z prawa opozycję dozwolone-niedozwolone, umożliwiając refleksję nad zagadnieniami, których przepisy (jeszcze lub w ogóle) nie obejmują, jak np. kwestia pożądanego kierunku rozwoju technologii czy – z drugiej strony – rozwiązywania konfliktów występujących niekiedy pomiędzy poszczególnymi wartościami. Każdy z tych komponentów musi być jednak zawsze ujmowany w kontekście pozostałych dwóch.

Bez interdyscyplinarności ani rusz

Do urzeczywistnienia wymogów trustworthy AI służą różne – techniczne i pozatechniczne – metody operacjonalizacji. Te pierwsze obejmują m.in. projektowanie zgodne z podejściem Ethics by Design, narzędzia z obszaru wyjaśnialnej AI (explainable AI) czy odpowiednie wskaźniki (benchmarks) pozwalające określić stopień zgodności danego systemu z wymogami bezpieczeństwa i etyki AI. Z kolei metody pozatechniczne to m.in. normalizacja zapewniająca jednorodność w zakresie różnych wymogów dotyczących systemów AI oraz certyfikacja jako gwarancja wiarygodności ich spełnienia przez podmioty używające AI.

W tym miejscu warto podkreślić, że wymogi etyki AI są w dużym stopniu zbieżne z wymogami zawartymi w AI Act. Ponadto, o czym była już mowa powyżej, te pierwsze są też w całości przywołane w Preambule rzeczonego rozporządzenia. Należy przy tym pamiętać, że szczegółowe rozwiązania umożliwiające realizację tych wymogów będą rozwijane w dużej mierze właśnie na gruncie etyki AI. Tym samym do rzeczywistego (a nie czysto formalnego) spełnienia wymogów zawartych w unijnym prawie będzie niezbędna współpraca specjalistów z różnych dziedzin, m.in. programistów, prawników i etyków, ale także menedżerów odpowiedzialnych za poszczególne projekty i całe organizacje.

Powyższa skrótowa rekonstrukcja założeń godnej zaufania sztucznej inteligencji pozwala zrozumieć, dlaczego jej pominięcie jako zasadniczego kontekstu AI Act może mieć fatalne skutki dla realizacji rozporządzenia w praktyce. To jednak nie wszystko. Koncepcja trustworthy AI nie sprowadza się bowiem tylko do zbioru wartości, zasad i wyprowadzonych z nich wytycznych. Jej równie istotną częścią są wskazania strategiczne dotyczące odpowiednich polityk i inwestycji niezbędnych, by urzeczywistnić tę ambitną wizję.

Zapomniane rekomendacje

Opisuje je drugi – po Wytycznych w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji – dokument przygotowany przez grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję Europejską, zatytułowany Policy and investment recommendations for trustworthy AI. Materiał ten, choć stanowi zasadnicze uzupełnienie pierwszego opracowania, nie stał się jednak przedmiotem należytej uwagi w dyskusji wokół europejskiej wizji rozwoju AI (świadczy o tym chociażby fakt, że jest on dostępny wyłącznie w wersji anglojęzycznej, podczas gdy Wytyczne etyczne opublikowano we wszystkich językach urzędowych UE). Tymczasem jego znajomość jest niezbędna do właściwego zrozumienia warunków koniecznych do realizacji godnej zaufania sztucznej inteligencji.

Przedstawione w nim zalecenia opierają się na przekonaniu, że trustworthy AI ma być nie tylko sposobem na przeciwdziałanie nadużyciom czy krzywdom wynikającym z niewłaściwego projektowania i stosowania AI, ale również siłą napędową rozwoju cyfrowej gospodarki w Europie. Dokument zawiera 33 szczegółowe rekomendacje i został podzielony na dwie główne części dotyczące wykorzystania godnej zaufania sztucznej inteligencji jako narzędzia pozytywnego oddziaływania w Europie oraz kluczowych mechanizmów niezbędnych do zrealizowania tego projektu.

Współpraca i inwestycje

Pierwsza z nich opisuje najważniejsze obszary, w których trustworthy AI może przynieść dobroczynne skutki. Chodzi tu, po pierwsze, o troskę o dobrostan indywidualny, społeczny i środowiskowy oraz wykorzystanie AI do realizacji celów zrównoważonego rozwoju. Po drugie, o wykorzystanie szans stojących przed sektorem prywatnym w Europie wynikających z odpowiedniego wykorzystania innowacji bazujących na AI. Po trzecie, o uczynienie z sektora publicznego katalizatora odpowiedzialnego rozwoju innowacji opartych na AI. Wreszcie po czwarte, o stworzenie na Starym Kontynencie warunków do prowadzenia interdyscyplinarnych badań nad AI, które z jednej strony byłyby atrakcyjne dla najwybitniejszych specjalistów w tym obszarze z różnych dziedzin, a z drugiej gwarantowały, że prace te będą uwzględniały wymogi trustworthiness.

Druga część precyzuje, jakie rozwiązania są potrzebne, aby szanse wynikające z koncepcji godnej zaufania AI mogły się urzeczywistnić. Niezbędna jest zatem dostępność danych i solidna infrastruktura, przy czym należy zadbać o to, by stworzone w tym obszarze mechanizmy umożliwiały współpracę w skali całej Europy i przeciwdziałały silosowości. Dalej: trzeba wypracować efektywne rozwiązania w zakresie szeroko pojętej edukacji, które z jednej strony zapewnią przygotowanie kolejnych roczników absolwentów do pracy z AI, z drugiej umożliwią nabywanie nowych kompetencji przez osoby znajdujące się już na rynku pracy, zaś z trzeciej wesprą odpowiedzialny rozwój i użytkowanie AI – z troską o społeczeństwo i środowisko. Kolejna rekomendacja dotyczy stworzenia odpowiednich ram prawnych wykorzystujących stopniowalne podejście do określania ryzyka sztucznej inteligencji. Ostatnie wskazanie odnosi się do konieczności zapewnienia odpowiednich środków finansowych i atrakcyjnych warunków inwestycyjnych zachęcających do rozwijania w Europie AI zgodnie z koncepcją trustworthiness i we współpracy sektorów publicznego i prywatnego.

Arbitralność? Nie, logika!

Rekomendacjami zawartymi w opracowaniu rządzi precyzyjna logika: punktem wyjścia są świadomi, znający swoje prawa, kompetentni cyfrowo i rozumiejący wyzwania współczesności obywatele. Kolejnym elementem jest biznes, który musi chcieć i móc wykorzystać szanse, jakie niesie ze sobą sztuczna inteligencja. Do tego niezbędne jest jednak wsparcie ze strony instytucji publicznych, które muszą nie tylko zapewnić właściwe otoczenie prawne, ale również wypracować różnorakie mechanizmy stymulujący adaptację innowacji, a ponadto samemu być wzorem do naśladowania, m.in. poprzez zamawianie rozwiązań AI spełniających wymogi trustworthiness.

Nawet tak pobieżne prezentacja wskazań zawartych w omawianym dokumencie dowodzi, że koncepcja godnej zaufania sztucznej inteligencji nie jest ani oderwanym od rzeczywistości przejawem myślenia życzeniowego, ani też przeszkodą spowalniającą rozwój innowacji w UE. Wręcz przeciwnie: twórcy opracowania dobrze rozumieją problemy, które negatywnie wpływają na rozwój i wdrażanie AI w Europie. Jednak wbrew bezkrytycznym zwolennikom skrajnego cyfrowego leseferyzmu, którzy za wzór stawiają Brukseli wolnorynkowe dogmaty rodem z Doliny Krzemowej, autorzy koncepcji trustworthy AI dostrzegają w spełnianiu wysokich standardów etyczno-prawnych przez europejskich twórców systemów sztucznej inteligencji szansę na zdobycie przewagi konkurencyjnej.

Efekt brukselski

W dobie rosnących zagrożeń ze strony globalnych megakorporacji technologicznych, których rozwój przed ostatnie dwie dekady odbywał się na zasadach ustanawianych najczęściej przez nie same, zachodnie demokracje nie mogą już dłużej biernie przyglądać się temu, co dzieje się na cyfrowym rynku. Rozumieją to zresztą coraz lepiej nie tylko unijni, ale i amerykańscy decydenci. Obie strony widzą, że nieograniczony rozwój big techów skutkuje osłabieniem demokratycznych instytucji i grozi liberalnemu porządkowi zachodniego świata. Zarazem to Europa jest w lepszym położeniu, aby skutecznie przeciwdziałać realizacji tego czarnego scenariusza.

Dlaczego tak się dzieje, wyjaśnia w Digital Empires Anu Bradford, która w swojej poprzedniej książce ukuła pojęcie efektu brukselskiego, czyli globalnego oddziaływania europejskich przepisów. Zdaniem Bradford obecnie mamy na świecie do czynienia z trzema konkurencyjnymi paradygmatami regulacji rynków cyfrowych: amerykańskim, opartym na prymacie wolnego rynku, chińskim, w którym dominującą rolę odgrywa państwo, oraz europejskim, wyrastającym z praw człowieka. W obliczu bankructwa technolibertariańskiej utopii to właśnie ten ostatni model ma dziś największe szanse, by wyznaczyć nowe standardy dla globalnego zrównoważonego rozwoju AI – przynajmniej w państwach niemających ciągot autorytarnych i niezainteresowanych wykorzystywaniem AI do coraz szerszej inwigilacji obywateli na wzór chiński.

Ambicje i rzeczywistość

Okazuje się zatem, że koncepcja trustworthy AI to dla europejskich przedsiębiorców nie tylko dodatkowe obciążenie, ale przede wszystkim szansa na budowanie prawdziwie innowacyjnych rozwiązań opartych na AI. Takich, które nie będą funkcjonować kosztem obywateli, ale okażą się korzystne dla wszystkich interesariuszy. Nie ma przy tym co ukrywać, że to ambitna wizja i niełatwo będzie ją urzeczywistnić. Europa ma jednak w swojej historii dowody na to, że potrafi myśleć według wartości i realizować strategie wykraczające poza najprostszy rachunek ekonomiczny.

Zresztą ważne kroki w kierunku zmaterializowania tej wizji zostały już podjęte. Najlepszym tego świadectwem jest właśnie przyjęcie AI Act. Dlatego tak ważne jest, by jego rozumienie i implementacja odbyły się w sposób zgodny z koncepcją, z której się wywodzi. Nie może być to jednak zgodność czysto deklaratywna. Aby trustworthy AI rzeczywiście zaistniała w Europie i mogła stać się wzorem dla reszty świata, potrzeba czegoś więcej niż samych przepisów. Niezbędne jest stworzenie ekosystemu obejmującego zarówno kwestie normatywne, jak i szczegółowe rozwiązania konceptualne i techniczne umożliwiające operacjonalizacje konkretnych wymogów etyczno-prawnych, a także inwestycje w infrastrukturę obliczeniową, odpowiedne programy edukacyjne oraz – co ma znaczenie kluczowe – zapewnienie środków finansowych na wielu poziomach, które umożliwiłyby realizację godnej zaufania AI w sektorach publicznym i prywatnym. Wreszcie o wszystkich tych kwestiach należy myśleć ekosystemowo, co powinno skutkować np. dążeniem do uzgadniania standardów dotyczących trustworthy AI z miernikami wypracowywanymi w obszarze celów zrównoważonego rozwoju i ESG.

Przyjmując koncepcję godnej zaufania sztucznej inteligencji, Europa zadeklarowała, że odcina się od technodeterminizmu i wierzy w innowacje służące całemu społeczeństwu oraz środowisku, które zamieszkujemy. Był to ważny, ale dopiero pierwszy krok ku realizacji bardziej sprawiedliwego modelu rozwoju technologii. Przyjęcie AI Act potwierdziło, że UE trzyma się przyjętego kursu. Przed nami jednak wciąż długa i kręta trasa do pokonania. Nie zapominajmy więc o właściwym celu i zadbajmy o zasoby pozwalające nam tam dotrzeć. W przeciwnym razie utkniemy gdzieś w pół drogi.

Skip to content