W dobie AI uwierzyliśmy, że wszystko może zostać skutecznie skwantyfikowane i przetworzone do postaci danych. Takie podejście grozi jednak uproszczeniami i spłaszczeniem wielowymiarowości świata. Dlatego potrzeba nam dziś nowych map opisujących rzeczywistość cyfrowych technologii.
O sztucznej inteligencji myślimy najczęściej jak o czymś niematerialnym. Nic dziwnego – nasz kontakt z nią odbywa się zwykle za pomocą niewielkich, wielofunkcyjnych urządzeń, podczas gdy ona sama znajduje się gdzieś daleko poza nimi.
Technologia wspierająca AI, czyli chmura obliczeniowa (cloud computing), tylko wzmaga to wrażenie eteryczności. Tu zarówno sama nazwa, jak i sposób działania (zdalna dostępność usług) zdają się utwierdzać nas w przekonaniu, że AI jest czymś trudno uchwytnym.
Nie z tego świata mogą się też wydawać spektakularne sukcesy sztucznej inteligencji, jak np. wygrana z mistrzem świata w go sprzed kilku lat. Gdy żywy gracz konfrontuje się z niewidzialną mocą algorytmów zdolnych wygenerować nadludzkie posunięcia, można istotnie odnieść wrażenie kontaktu z czymś magicznym.
Czasem jednak zdarza nam się spotkać ucieleśnioną AI – jej powłoką jest wtedy zwykle humanoidalny robot albo zagadkowo migający diodami superkomputer. Wywołują one najczęściej ciekawość pomieszaną z niepokojem (jako podobne do nas, ale jednak w istocie całkiem obce – efekt znany jako dolina niesamowitości) albo poczucie nieprzeniknioności.
Gdy mowa o etyce sztucznej inteligencji, to tutaj także pozostajemy w dość abstrakcyjnej sferze. Większość inicjatyw w tym obszarze skupia się dziś na określaniu zasad wyznaczających etyczne ramy AI (jak transparentność, sprawiedliwość czy prywatność), zaś ich praktyczna realizacja często wiąże się z wykorzystaniem różnych rozwiązań technicznych (np. metody explainable AI, czyli wyjaśnialnej sztucznej inteligencji). Może to sprawiać wrażenie, że etyka AI jest po prostu kolejnym komponentem uczenia maszynowego – dziedziny dostępnej nielicznej grupie wykwalifikowanych fachowców, a ukrytej dla całej rzeszy profanów.
We wszystkich tych przypadkach AI wydaje się czymś z odmiennego porządku niż nasza przyziemna codzienność.
Takiemu postrzeganiu sztucznej inteligencji stanowczo przeciwstawia się Kate Crawford – badaczka z Microsoft Research Lab New York i współzałożycielka AI Now Institute na Uniwersytecie Nowojorskim. W swojej najnowszej książce „Atlas of AI” odczarowuje sztuczną inteligencję i ukazuje powiązanie tej technologii z bardzo konkretnymi aspektami rzeczywistości.
Zdaniem Crawford rozpowszechnione dziś wyabstrahowane i stechnicyzowane postrzeganie AI nie jest przypadkowe. Sztuczna inteligencja to bowiem nie tyle technologia (tę lepiej określa pojęcie uczenie maszynowe), ile technokratyczne narzędzie władzy obejmujące różne wymiary: polityczny, społeczny, biznesowy czy środowiskowy. Z tego względu gracze zainteresowani zdobyciem jak najszerszych wpływów w tych obszarach chętnie posługują się „magiczną” retoryką, przysłaniającą faktyczne konteksty związane z wytwarzaniem i zastosowaniem sztucznej inteligencji.
Pisząc o AI, Crawford nie ma zatem na myśli wyłącznie wąsko pojętych mechanizmów działania czy efektywności algorytmów, ale przede wszystkim wielowymiarowe uwikłanie systemów opartych na uczeniu maszynowym w grę polityczną i rynkową.
Autorka „Atlas of AI” przekonuje, że współczesną dyskusję o sztucznej inteligencji cechuje iluzja automatyzacji możliwa dzięki wyparciu materialnych aspektów tej technologii. Tymczasem, zauważa Crawford, AI istnieje nie tylko dzięki postępowi w dziedzinie obliczeń wielkoskalowych, pęczniejącym z dnia na dzień zbiorom danych czy coraz sprawniejszym algorytmom. Jej równie istotne źródła to groźne dla ludzi i środowiska kopalnie metali rzadkich, niezliczone rzesze najemnych i źle opłacanych pracowników harujących w różnych zakątkach globu, a także masowa ekstrakcja danych o niemal wszystkich aspektach naszej rzeczywistości dokonywana często bez naszej woli czy wiedzy.
Dlatego właśnie, zdaniem Crawford, AI nie jest ani sztuczna, ani inteligentna. Jej sukces pozostaje bowiem głęboko zakorzeniony w tym, co naturalne i materialne (surowce niezbędne do budowy elektroniki), opiera się w dużym stopniu na pracy anonimowych moderatorów treści czy pracowników odpowiedzialnych za etykietowanie danych służących do trenowania systemów uczenia maszynowego, a wreszcie wymaga ogromnej ilości energii, by wyprodukować owe spektakularne rezultaty, opiera się bowiem na przetwarzaniu wielkich zbiorów danych.
Książka Crawford jest rozwinięciem jej wcześniejszych badań. W 2018 roku opublikowała wyniki zrealizowanego wspólnie z Vladanem Jolerem projektu Anatomy of an AI system, w którym na przykładzie inteligentnych głośników Amazon Echo stworzono mapę pracy, zasobów naturalnych oraz danych niezbędnych do budowy tego urządzenia.
W najnowszej publikacji rozszerza zakres badań, obejmując znacznie szersze spektrum dostępnych na rynku urządzeń, jednak logika leżąca u jej podstaw jest ta sama: stworzyć atlas ilustrujący skomplikowany i wielowymiarowy proces produkcji AI w jej różnych odsłonach z naciskiem na środowiskowe, społeczne i polityczne koszty zewnętrzne.
W tym przypadku słowo atlas odzwierciedla nie tylko wstydliwe powiązania najbogatszych firm technologicznych Doliny Krzemowej z innymi, często najuboższymi zakątkami globu, ale też stanowi propozycję nowej perspektywy. Jak bowiem przekonuje Crawford, każda mapa kształtuje sposób, w jaki postrzegamy otoczenie. Jej atlas jest zatem próbą stworzenia alternatywnej narracji wobec dominującej dziś wizji AI jako oderwanej od materialności technologii.
Celem Crawford, jak sama wyjaśnia, było opisanie globalnej infrastruktury AI traktowanej jako szeroko pojęty przemysł wydobywczy. Badaczka podkreśla, że nie chodzi tu wyłącznie o surowce naturalne, jak lit, kobalt, german, dysproz czy neodym, ale także o ekstrakcję danych. Retoryka, wedle której dane to nowa ropa naftowa, ma jej zdaniem na celu uprawomocnić ich nieograniczone pozyskiwanie. Jeśli są one bowiem surowcem czekającym na wydobycie, to zgodnie z logiką kapitalizmu każdy ma do tego prawo.
Tymczasem, przekonuje Crawford, u źródeł tej praktyki tkwi pojęcie datafikacji. Odnosi się ono do przekonania, że każda sfera ludzkiego życia i otaczającej nas rzeczywistości może zostać skutecznie skwantyfikowana i przetworzona do postaci danych. Tymczasem jest to zwyczajna ideologia, która uprzywilejowuje jeden punkt widzenia, by następnie narzucić go we wszelkich możliwych sferach bez względu na konsekwencje.
Na efekty takiego podejścia nie trzeba było długo czekać. Automatyzacja wzmocniona datafikacją i algorytmizacją jest dziś obecna w niemal wszystkich obszarach: od przemysłu wytwórczego, przez logistykę, szeroko pojęte media, aż po sektory najbliższe człowiekowi, jak służba zdrowia, zarządzanie ludźmi czy służby publiczne. Zastosowanie tej samej logiki we wszystkich tych obszarach jest zdaniem Crawford bardzo niebezpieczne. Czym innym bowiem jest optymalizacja w odniesieniu do zmechanizowanej produkcji, a czym innym wyśrubowane normy wydajności dla ludzi pracujących w częściowo zautomatyzowanych wielkopowierzchniowych magazynach.
Problem jednak nie tkwi wyłącznie w nowej odsłonie zjawiska, które dobrze znamy od lat, czyli traktowaniu człowieka jako dodatku do maszyny. Kłopot z AI, podkreśla Crawford, to także często niewłaściwie fundamenty dla uczenia maszynowego. Chodzi o zbiory danych służące do trenowania AI.
Badaczka podaje przykłady sztucznej inteligencji, którą szkolono używając danych budzących zastrzeżenia natury moralnej, jak choćby zdjęć osób z kartoteki policyjnej wykorzystanych do budowy systemów rozpoznawania twarzy. To jednak nie wszystko. Tworzone na potrzeby szkolenia AI bazy danych często obarczone były błędami metodycznymi (np. nadreprezentacją jakiejś grupy etnicznej w danej populacji), co skutkowało dyskryminacją i skrzywieniem algorytmicznym.
To fakty znane i dyskutowane od lat, jednak w ujęciu Crawford zyskują one nowy kontekst. Nie chodzi bowiem tylko o to, że rozwój technologii wywołuje nowe problemy. Rzecz w tym, że do ich rozwiązywania używamy często tej samej technologii, która je stworzyła.
Tymczasem, jak zauważa Crawford, przez podobne myślenie z pola widzenia znika istota problemu. Jeśli bowiem skrzywienie algorytmiczne traktujemy wyłącznie jako błąd systemu, który da się naprawić środkami technicznymi, to nie dostrzegamy logiki leżącej u źródła zjawiska. A jest nią, przekonuje Crawford, sam mechanizm klasyfikowania, czyli de facto uprzedmiatawiania ludzi na wzór scjentystycznej taksonomii.
Takie podejście, choć ma długą tradycję w naukach przyrodniczych, grozi jednak redukcjonizmem, gdy zastosować je wobec społeczeństwa. Skutkuje bowiem nazbyt często uproszczeniami i spłaszczaniem wielowymiarowego świata. Jak pisze Crawford, polega na dopasowaniu teorii do narzędzi, którymi dysponujemy, nie zaś do rzeczywistości, która poza nimi istnieje.
Oczywiście myślenie o nauce jako maszynie do wytwarzania wiedzy nie jest niczym nowym. O epistemologicznej przemocy taksonomii pisał już w latach 60. i 70. ubiegłego wieku Michel Foucault (do którego Crawford zresztą się odwołuje), a źródła jego myśli sięgają Nietzschego i innych filozofów z tzw. szkoły podejrzeń.
Problem w tym, zaznacza autorka „Atlas of AI”, że dziś ośrodki naukowe i biznesowe produkujące sztuczną inteligencję nie tylko same w sobie cieszą się dużą władzą, ale pozostają także w coraz bliższych relacjach z decydentami stojącymi na czele państw. Taka symbioza prowadzi zaś do sytuacji, w której scentralizowane mechanizmy kontroli stopniowo wypierają ze sfery publicznej inne formy współżycia zbiorowego.
Podobny sposób myślenia znajduje dziś odzwierciedlenie także w obszarze etyki sztucznej inteligencji. Thilo Hagendorff z Uniwersytetu w Tybindze, nawiązując m.in. do prac Crawford, pisze, że sprowadzanie etyki AI do kilku zasad, wedle których da się następnie zaprogramować sztuczną inteligencję, redukuje etykę technologii do wąskiego zbioru zagadnień i uprzywilejowuje podejście inżynierskie. Tym samym etyka pozostaje ślepa na problemy, o których pisze autorka „Atlas of AI”, czyli m.in. destrukcyjny wpływ branży technologicznej na środowisko, pogłębianie nierówności pomiędzy państwami czy nowe form wyzysku na rynku pracy.
Takie redukcyjne postrzeganie etyki jest na rękę podmiotom produkującym AI, które biorą udział w grze rynkowej. Zubaża jednak publiczną debatę wokół wielu kluczowych zjawisk związanych z rozwojem i wdrażaniem AI i tworzy błędne wrażenie, że etyka AI sprawdza się do rozwiązań oferowanych przez programistów. Tymczasem stawką w grze jest sposób, w jaki kształtujemy nasze relacje społeczne, ekonomiczne czy polityczne.
Traktowanie problemów dotykających społeczeństwo jako wyzwań technicznych to mechanizm wspierający technokratyczne formy władzy, mówi Crawford. Umacnia on technodeterminizm, czyli przekonanie, że nie mamy wpływu na kierunek rozwoju innowacji. Taka postawa jest wspólna zarówno technooptymistom, jak i technosceptykom, ponieważ jedni i drudzy wierzą, że postęp jest nieunikniony i odbywa się niejako samoczynnie, poza naszą kontrolą. Różni ich jedynie ocena zachodzących zjawisk.
Dziś, przekonuje Crawford, potrzebujemy nowej interpretacji rzeczywistości zdominowanej przez cyfrowe technologie. Musimy stworzyć nowe mapy, bo te, którymi dysponujemy, niewłaściwie opisują świat wokół nas. Tylko wtedy uda nam się dostrzec, że naprawianie AI jej własnymi środkami nie jest jedyną możliwą drogą. To też warunek, by dyskusja o technologiach stała się bardziej demokratyczna. „Atlas of AI” z pewnością stanowi do niej dobry punkt wyjścia.
Źródła: