Mamy skłonność do postrzegania AI jako bardzo zaawansowanej, wirtualnej i niemal nieuchwytnej technologii. Powoduje to wiele problemów, ponieważ w efekcie nie potrafimy dostrzec wszystkich wymiarów jej oddziaływania. Dlatego żeby w pełni ocenić tę technologię, trzeba brać pod uwagę cały cykl życia systemu AI – mówi dr Anaïs Rességuier w rozmowie z Maciejem Chojnowskim.
Maciej Chojnowski: W artykule napisanym wspólnie z Roweną Rodrigues przekonujecie, że etyka sztucznej inteligencji opiera się dziś głównie na ogólnie sformułowanych zasadach i jest dość abstrakcyjna. Podajecie też dwa powody, dla których taka etyka okazuje się raczej nieskuteczna. Po pierwsze, dysponuje ona ograniczonymi sposobami wymogu zgodności. Po drugie, etyka AI nie powinna być traktowana jako miękka odmiana prawa. Wręcz przeciwnie, trzeba ją postrzegać jako uważność na kontekst: stale odnawianą umiejętność dostrzegania tego, co nowe, która stanowi „potężne narzędzie przeciwko poznawczej inercji”. Jakie przykłady tej inercji są dziś najbardziej widoczne w dziedzinie AI?
Anaïs Rességuier*: Chciałabym tu zwrócić uwagę na dwie sprawy. Pierwsza dotyczy inercji w dostrzeganiu odmiennego wpływu sztucznej inteligencji na różne środowiska. Często nie potrafimy przyznać, że jeśli system AI nie działa w przypadku jakiejś grupy ludzi, to jest to porażka tego systemu. A takich systemów, które kiepsko działają w odniesieniu do określonych środowisk, jest wiele. Powinno się to uznawać za naprawdę istotny problem, a nie marginalną kwestię, i odpowiednio go rozwiązywać.
Świetnego przykładu takich problemów dostarcza opracowane przez Joy Buolamwini i Timnit Gebru badanie „Gender shades” dotyczące systemów rozpoznawania twarzy. Pokazuje ono, że standardowe sposoby ewaluacji tych systemów oceniające poziom błędów w skali całej populacji nie oddają dużych rozbieżności występujących pomiędzy różnymi środowiskami. Badanie to dowiodło, że w przypadku czarnoskórych kobiet poziom błędów jest tu znacznie wyższy niż w odniesieniu do białych mężczyzn.
Obrazuje to dobrze, że potrzeba nam więcej lepiej dopasowanych i bardziej precyzyjnych narzędzi oceny tej technologii – takich, które bliżej przyglądają się cechom poszczególnych grup. Myślę, że mimo ewidentnych dowodów, jak bardzo jest to pożądane, wiele osób wciąż pozostaje na to ślepych. To pierwszy obszar poznawczej inercji, na który chciałabym zwrócić uwagę.
A drugi?
Drugi dotyczy niechęci do dostrzeżenia pełnego wymiaru funkcjonowania systemów AI: włącznie z surowcami, na których bazują, ich środowiskowego oddziaływania, kosztów produkcji i utylizacji komponentów, z których są zbudowane, i tak dalej.
Mamy skłonność do postrzegania AI jako bardzo zaawansowanej technologii, która jest niemal wirtualna, nieuchwytna. W innym artykule określiłyśmy to mianem „niematerialnej narracji AI”. Powoduje to wiele problemów, ponieważ w efekcie nie potrafimy dostrzec wszystkich wymiarów oddziaływania AI. Na przykład jedno z badań nad wpływem sztucznej inteligencji na środowisko dowodzi, że trenowanie pojedynczego systemu AI wytwarza tyle samo dwutlenku węgla, co pięć samochodów w całym swoim cyklu użytkowania! To zatem niebagatelne oddziaływanie. Dlatego żeby w pełni ocenić tę technologię, trzeba brać pod uwagę cały cykl życia systemu AI, a nie tylko algorytmy rozwijane w laboratoriach.
W książce „Atlas of AI” Kate Crawford znakomicie zredefiniowała to, czym jest AI w swoich różnych wymiarach: od metali rzadkich, na których bazuje, przez infrastrukturę, logistykę, aż po zbieranie danych i ich oddziaływanie. A zatem kiedy myślimy o AI, musimy brać pod uwagę naprawdę szeroki kontekst. Obawiam się jednak, że wciąż nie do końca to dostrzegamy. Powinno się to zdecydowanie zmienić.
Zdaniem Luciano Floridiego etyka stanowi jeden z trzech komponentów systemu normatywnego dotyczącego technologii (pozostałe dwa to regulacja i zarządzanie). Regulacja, choć mówi nam, co jest zgodne bądź niezgodne z prawem, milczy, gdy chodzi o to, jak sprawić, byśmy mogli żyć w lepszym społeczeństwie. Tego typu moralna ocena jest możliwa tylko w obszarze etyki. Wydaje się, że dokładnie tego brakuje dziś etyce AI właśnie z powodu dominującego obecnie legalistycznego podejścia. Jakiego rodzaju działań i narzędzi potrzebujemy, żeby uczynić ją skuteczną?
Aby na to odpowiedzieć, chciałabym dokonać rozróżnienia w dziedzinie etyki, które pozwoli odnieść się do częstego dziś pomieszania pojęć.
Z jednej strony możemy zatem wyróżnić etykę jako element określonych działań instytucjonalnych. Na przykład w bioetyce istnieją trwałe ramy umożliwiające jej praktyczną skuteczność w badaniach medycznych. W Trilateral Research mamy sporo do czynienia z takim podejściem, szczególnie jeśli chodzi o etykę badawczą stosowaną w przypadku nowych technologii. Doradzamy w projektach badawczych tworzących rozwiązania w tym obszarze, tak by zapewnić ich zgodność z etycznymi wymogami. Komisja Europejska wypracowała bardzo konkretne ramy określające wymogi, jakie muszą spełniać grantobiorcy. Podczas pracy nad projektami finansowanymi ze środków unijnych korzystamy z naszego doświadczenia, by wdrażać te ramy etyczne. I ta postać etyki rzeczywiście przypomina miękką wersję prawa.
W artykule, o którym wspomniałeś na początku, odniosłyśmy się krytycznie do ujmowania etyki jako takiej miękkiej odmiany prawa w sytuacjach, gdy nie ma ona instytucjonalnego zakorzenienia. Wtedy rzeczywiście staje się ona bezbronna (toothless). Jednak może być ona również bardzo wartościowa, jeśli zostanie włączona w mechanizmy instytucjonalne gwarantujące wymóg zgodności. Na przykład jeśli finansowany ze środków unijnych projekt nie spełnia wymogów etyki badawczej, finansowanie może być wstrzymane bądź sam projekt zawieszony. Istnieją więc sposoby na zapewnienie zgodności z wymogami etycznymi.
W latach 2020-2021 Komisja Europejska stworzyła ramy dla etyki badawczej dotyczącej projektów finansowanych przez Unię, które używają bądź rozwijają AI. W projekcie SIENNA mieliśmy okazję wnieść swój wkład w tę inicjatywę, sugerując sposoby rozpoznawania problemów etycznych w projektach stosujących bądź rozwijających AI oraz minimalizowania wynikającego z nich ryzyka. Opracowanie to zostało już przyjęte i stanowi wymóg dla wszystkich projektów finansowanych w nowym Programie Ramowym Horyzont Europa, który potrwa przez najbliższe siedem lat. Będzie więc ciekawie móc zobaczyć, jak to działa. Zresztą już sposobimy się, aby zaproponować dalsze ulepszenia.
I to jest właśnie to pierwsze podejście – etyka zakorzeniona instytucjonalnie. Z pewnością trzeba je też dalej rozwijać w odniesieniu do etyki sztucznej inteligencji.
Wydaje się, że to właśnie dominujący dziś sposób myślenia o etyce AI.
Ale istnieje też drugi aspekt etyki – bardzo ważny, choć rzadziej dostrzegany. W istocie jest on jednak źródłem tego pierwszego podejścia, o którym przed chwilą mówiłam. Na tym właśnie aspekcie skupiliśmy się w opracowaniu Ethics as Attention to Context stworzonym w projekcie SIENNA. W tym przypadku etyka ujmowana jest jako otwartość oraz nieustannie odnawiana uważność na świat i nowe zjawiska, które w nim zachodzą.
W tym miejscu powracamy do etyki jako sposobu ograniczania poznawczej inercji. W przeciwieństwie do pierwszego podejścia etyka nie polega tu na wskazywaniu, co powinniśmy bądź czego nie powinniśmy robić. Chodzi raczej o nasz stosunek do świata charakteryzujący się uważnością i umiejętnością określania norm. Bo dopiero gdy potrafimy dostrzec nowe zjawiska, które się dzieją, jesteśmy w stanie wskazać, jak sobie z nimi radzić.
Chodzi tu więc bardziej o postawę, rodzaj etycznej sprawczości, niż o wydawanie sądu mówiącego „zrób to czy tamto”. Ukute przez francuskiego filozofa medycyny Georges’a Canguilhema pojęcie „aktywności normatywnej” może być pomocne, by wyjaśnić, na czym polega ta postawa czy zdolność. Chodzi tu o umiejętność określania norm, a nie o same normy jako takie.
Czy możesz powiedzieć nieco więcej na temat tego rozróżnienia?
Powinniśmy oddzielać te dwa podejścia do etyki, ponieważ ich pomieszanie tworzy warunki do manipulacji. Widzieliśmy, jak przedstawiciele branży AI lobbowali za przyjęciem etycznych rozwiązań zamiast twardej regulacji. Propagowali otwartość etyki, żeby uniknąć jasnych granic, co mogą, a czego nie mogą robić z tą technologią. Ale było to możliwe właśnie poprzez mylenie etyki jako miękkiej odmiany prawa z etyką jako otwartym procesem wymagającym refleksji i uważności.
Mamy dziś do czynienia z technologią wprowadzającą znaczące i głębokie zmiany w świecie, wywierającą wpływ na to, kim jesteśmy, na nasze relacje i tak dalej. Dlatego musimy doskonale rozumieć te zmiany, aby móc właściwie pokierować tą transformacją i ograniczyć jej negatywne oddziaływanie, zaś promować pozytywne.
W tym właśnie miejscu pierwsze znaczenie etyki spotyka się z drugim. Ponieważ dopiero gdy jesteśmy w stanie widzieć, co się dzieje, możemy postawić pytanie, co w tej sytuacji powinniśmy robić.
Kiedy mówi się o możliwej klasyfikacji etyki AI, na myśl przychodzą trzy ogólne podejścia: wspomniane już podejście legalistyczne, a także operacyjne oraz krytyczne. O ile pierwsze z nich wydaje się dość jasne, bo skupia się na definiowaniu zasad i norm, o tyle pozostałe dwa mogą być mniej oczywiste. Przykładem podejścia operacyjnego jest dla mnie Ethics by Design, zaś podejściu krytycznemu dobrze odpowiada to, za czym właśnie orędujesz, czyli Ethics as Attention to Context. Jeśli jednak przyjmiemy, że uważność na kontekst oznacza przyglądanie się otaczającemu nas światu krytycznym okiem, to prawdopodobnie dla wielu osób będzie to równoznaczne z negatywnym podejściem skupionym na tworzeniu kolejnych zakazów. Czy w postawie krytycznej zawiera się też pozytywny komponent, który może zaowocować konstruktywnymi rozwiązaniami?
Myślę, że tak. Martwi mnie, że podejście krytyczne bywa czasem wyłącznie negatywne i nie ma pozytywnego wkładu w rozwijane technologie. Ale dzieje się tak również dlatego, że czasem nie sposób ukryć zdziwienia, widząc niektóre innowacje w obszarze AI. Na przykład niedawno OpenAI opracował system DALL·E 2, który mimo swoich innowacyjnych możliwości generuje również bardzo seksistowskie i rasistowskie obrazy na podstawie tekstów. Potrafię więc zrozumieć pewien resentyment występujący w środowisku. Może właśnie takie sytuacje sprawiają, że krytyczne podejście okazuje się negatywne.
Ale uważam, że powinniśmy być zarazem krytyczni i konstruktywni. O to właśnie chodzi nam w artykule dotyczącym podejścia Ethics as Attention to Context – trzeba tak ukierunkować badania i cały sektor AI, by były one bardziej korzystne dla społeczeństwa. To ogromne wyzwanie, szczególnie gdy chodzi o takich potężnych graczy jak Google czy Facebook, gdzie mamy do czynienia z wielką asymetrią władzy. Niemniej sądzę, że musimy pozostać krytyczni, a zarazem mieć pozytywny wkład w to, co się dzieje.
W materiałach opublikowanych w projekcie SIENNA jest mowa o tym, że zarówno w przypadku Ethics by Design, jak i Ethics as Attention to Context, ankietowani praktycy AI wskazywali na potrzebę bardziej praktycznej, dającej się realnie zastosować etyki sztucznej inteligencji. Wydaje się zatem, że przy tworzeniu obu tych podejść przyświecał wam ten sam cel: dać ludziom coś więcej niż zbiór ogólnych zasad. Czy podejście krytyczne (kontekstowe) ma być tutaj mechanizmem wspierającym myślenie w kategoriach operacyjnych?
Sądzę, że w nastawieniu krytycznym rzeczywiście chodzi o praktyczny wkład w działania i podejmowane decyzje. Nasze opracowanie rozpoczyna się od krytyki dominującego podejścia, ale potem formułujemy propozycję, która z kolei zostaje zoperacjonalizowana jako zbiór praktycznych wskazówek skierowanych do różnych interesariuszy w obszarze AI. Tak więc ten czynnik operacyjny jest tutaj obecny.
Warto również wspomnieć, że gdy mamy do czynienia wyłącznie z samym operacyjnym podejściem, to wdrożenie naprawdę złożonych wartości czy pojęć (jak sprawiedliwość) podczas rozwijania technologii wydaje się czasem nazbyt proste. Na przykład musimy szanować zasadę sprawiedliwości, ale z drugiej strony wiadomo przecież, że jej wdrożenie jest wielkim wyzwaniem w społeczeństwie, które u swych podstaw pozostaje zasadniczo nierówne i niesprawiedliwe. Uważam więc, że bardzo ważną rolą myślenia krytycznego jest stale podkreślać, że nie jest to proste zadanie. Trzeba na to zwracać uwagę, aby nie okazało się, że przestrzeganie zasady sprawiedliwości sprowadza się do pustych deklaracji.
Podejścia Ethics by Design i Ethics as Attention to Context oferują różne rozwiązania czy propozycje operacjonalizacji etyki AI i wzajemnie się uzupełniają. Warto byłoby je ze sobą połączyć, ale nie udało się tego zrealizować w projekcie SIENNA. Powinno się to pewnie stać przedmiotem kolejnego projektu badawczego.
Twierdzisz, że podejście Ethics as Attention to Context polega również na umożliwieniu sprawczości etycznej, która jest kluczowa, gdy myślimy o moralnym rozumowaniu czy moralnej ewaluacji. Z drugiej strony część osób oczekuje, że etyka AI zostanie (częściowo) zautomatyzowana lub przełożona na zbiór algorytmów, którymi będzie się można posługiwać bez nadmiernej refleksji. Czy uważasz, że te oczekiwania da się ze sobą pogodzić, czy raczej się wykluczają?
To sprawa, o której coraz głośniej się dziś dyskutuje. Jestem tu dość radykalna. Mówienie o maszynach zdolnych do moralnego namysłu nie ma żadnego sensu.
Oczywiście normy, wartości czy światopoglądy są wpisane w systemy technologiczne. To bardzo ważne, żebyśmy zdawali sobie z tego sprawę. Na przykład pewne przekonania na temat ról płciowych są zagrożone, kiedy asystenci głosowi są regularnie wyposażani w kobiece głosy. Jest takie znane powiedzenie historyka technologii Melvina Kranzberga, które mówi, że technologia nie jest dobra ani zła – nie jest też neutralna. Dlatego właśnie powinniśmy badać technologię: bo nie jest neutralna.
Ale to wszystko jest bardzo dalekie od stwierdzenia, że technologia, maszyna czy algorytm są zdolne do moralnego rozumowania. Jedynymi podmiotami moralnymi pozostają ludzie. A gdy jeszcze ujmiemy etykę jako uważność na kontekst, to wtedy tym bardziej nie da się jej zautomatyzować. I bardzo niebezpiecznie jest udawać, że to możliwe. Tak więc choć możemy wpisać określone wartości w system AI, nie oznacza to, że będzie on przeprowadzał moralne rozumowanie. Powinniśmy naprawdę unikać takich stwierdzeń, ponieważ jest to sposób na zrzeczenie się odpowiedzialności za to, co sami budujemy. A to niebezpieczny kierunek.
Abstrahując od sztucznych podmiotów moralnych, co do których w pełni zgadzam się z twoim stanowiskiem, omawiana kwestia ma jeszcze jeden aspekt. Rzecz bowiem być może nie tyle w budowaniu moralnych maszyn, ile w uzyskaniu wsparcia, gdy ktoś nie ma odpowiedniego zaplecza, by mierzyć się z kwestiami etycznymi. Inżynierowie mogą powiedzieć: dobrze, zaczniemy się zajmować etyką, ale wtedy cały proces zajmie nam dwa albo trzy lata zamiast roku jak dotychczas. Chodzi więc bardziej o problem, jak radzić sobie z tymi zagadnieniami, szczególnie gdy mowa o osobach mających ograniczone kompetencje w dziedzinie etyki. Czy da się tu znaleźć jakieś wyważone rozwiązanie między automatyzacją a refleksją?
Być może ramy określone w podejściu Ethics by Design to sposób na znalezienie tej równowagi dzięki zawartym w nim narzędziom wspierającym moralne myślenie i dzielącym proces refleksji na konkretne kroki. Myślę, że zawsze będzie to wymagało ponownego namysłu i odpowiedniego dystansu.
A im większe będą potencjalne szkody danego systemu, tym więcej czasu i uwagi będzie wymagała jego właściwa ocena. Na tym właśnie polega podejście oparte na ryzyku przedstawione przez Komisję Europejską (w projekcie rozporządzenia dot. AI – red.). Być może należy rozważyć, czy w przypadku systemów wysokiego ryzyka nie powinno się zagwarantować obecności ekspertów z obszaru etyki i nauk społecznych w zespołach projektowych. Zapewne istnieją systemy, przy których nie jest to konieczne. Możemy przecież wybierać różne podejścia w zależności od poziomu ryzyka stwarzanego przez dany system. Ale tu znowu powraca kwestia, kto i w jaki sposób miałby określać jego potencjalne ryzyko.
Uważam jednak, że trzeba rozwijać narzędzia do etyki AI na różnych poziomach, począwszy od szkolenia inżynierów. Powinniśmy również mieć więcej przedstawicieli nauk społecznych i etyków w zespołach tworzących technologie. Kwestie etyczne nie powinny w całości spadać na inżynierów, którzy nie są specjalistami w tej dziedzinie.
Podejście Ethics as Attention to Context dotyczy takich kwestii, jak materialność technologii, rzeczywistość polityczna czy relacje władzy. To poważne problemy i niełatwo im sprostać. Moim zdaniem aby osiągnąć cele podejścia krytycznego (odnoszę się tu także do niedawnych książek Kate Crawford, Petera Dauvergne’a czy Marka Coeckelbergha), potrzebna byłaby zapewne jakaś rewolucja w myśleniu o tym, jak zorganizowany jest świat. Czy zatem twoim zdaniem pewne rozwiązania w tym obszarze mogą być wdrażane sukcesywnie, czy jednak najpierw niezbędna jest ogólna zmiana postaw w skali globalnej?
Rzeczywiście, to wielkie wyzwanie. Myślę, że w przypadku perspektywy krytycznej niezbędne jest ciągłe zaczynanie na nowo. Nasze wysiłki nie mogą mieć końca, bo nie żyjemy w doskonałym świecie. A jeśli porzucimy perspektywę krytyczną, sytuacja pod wieloma względami stanie się naprawdę niebezpieczna. W przypadku AI wiadomo już, że z wieloma kluczowymi problemami, jak uprzedzenia czy dyskryminacja, nie można sobie radzić wyłącznie za pomocą środków technicznych, ponieważ te problematyczne kwestie cały czas wracają.
Wspominałam już o niedawno zbudowanym przez OpenAI generatorze DALL·E 2. Potrafi on tworzyć niezwykłe obrazy na podstawie samego tekstu. Ale zarazem gdy ma za zadanie przedstawić wizerunek pielęgniarza/pielęgniarki lub asystenta/asystentki (w oryginale nurse i assistant bez rodzaju – red.), generuje obraz kobiety. Jak w 2022 roku można mieć technologię, która wytwarza takie wsteczne (reactionary) rezultaty? To naprawdę rozczarowujące. Ale systemy AI nie są same w sobie rasistowskie ani seksistowskie. Po prostu odzwierciedlają społeczeństwo. A społeczeństwo tak właśnie było dotychczas ustrukturyzowane.
Ale jestem też optymistką. Coraz częściej mówi się dziś, że nie można już dłużej pomijać tych głęboko kontekstowych elementów, i takie bardziej całościowe podejście jest uznawane w środowisku za konieczne. Wyzwaniem jest znalezienie sposobu, jak zoperacjonalizować tę świadomość. Włączenie przedstawicieli nauk społecznych i zapewnienie różnorodności w zespołach rozwijających systemy AI może tu dużo zmienić.
Skąd spodziewałabyś się impulsu do tej zmiany podejścia na bardziej kontekstowe? Czy będzie to oddolny trend w środowisku praktyków rozwijających AI, czy raczej odgórna inicjatywa strony rządowej czy sektorowej?
Potrzebujemy wszelkich inicjatyw, z każdej strony branży AI. Opracowany w projekcie SIENNA dokument 5.4 zaczyna się strategią obejmującą wielu interesariuszy. Podkreśla ona rolę wszystkich aktorów społecznych: społeczeństwa obywatelskiego, mediów, decydentów, inżynierów AI, etyków i tak dalej. Takie bardzo szerokie ujęcie jest konieczne, ponieważ mamy do czynienia z technologią, która przenika wiele obszarów życia i na różne sposoby oddziałuje na społeczeństwo.
Zastrzeżenie: Niniejszy wywiad przedstawia stanowisko dr Anaïs Rességuier oparte na wynikach projektu SIENNA. Nie odzwierciedla ono całości projektu SIENNA ani stanowiska Trilateral Research.
* Dr Anaïs Rességuier – filozofka, etyczka, badaczka społeczna. Senior Research Analyst w Trilateral Research, gdzie zajmuje się etyką nowych technologii, szczególnie AI. Swoje badania prowadzi w ramach unijnych projektów, takich jak SIENNA czy TechEthos. W obszarze etyki AI skupia się na przejściu od ogólnych i abstrakcyjnych zasad do konkretnych praktyk obejmujących konteksty społeczny, polityczny i środowiskowy. Zwolenniczka badań interdyscyplinarnych i współpracy z różnymi interesariuszami.
Read the English version of the interview HERE