Close

Henrik Skaug Sætra:
Postrzeganie AI
przez pryzmat SDG
jest korzystne

24 listopada, 2022
Maciej Chojnowski

W analizach AI musimy uwzględniać kontekst oraz ludzki i społeczny pierwiastek. Technosolucjonizm zbyt często ignoruje liczne kwestie o podstawowym znaczeniu dla naszej egzystencji, co daje szkodliwe efekty. Tracimy z oczu wiele aspektów ludzkiego doświadczenia, gdy ograniczamy się do takiego maszynowego, dostosowanego do sztucznej inteligencji modelu uprawiania nauki – mówi dr Henrik Skaug Sætra w rozmowie z Maciejem Chojnowskim.

Maciej Chojnowski: Orędujesz za kontekstowym podejściem do sztucznej inteligencji i masz krytyczny stosunek do tzw. izolacjonizmu, w którym oddziaływanie AI w jednym obszarze ocenia się w oderwaniu od pozostałych sfer. Twoje podejście do ewaluacji AI uwzględnia szereg różnych czynników. Ostatnio w swoich badaniach skupiasz się na ONZ-owskich celach zrównoważonego rozwoju (Sustainable Development Goals, SDG). Czy to optymalne narzędzie do oceny oddziaływania AI?

Henrik Skaug Sætra*: Krótka odpowiedź brzmi: nie. Nie jest optymalne, ponieważ nie obejmuje wprost kwestii prywatności ani wielu zagadnień związanych z prawami człowieka. Są więc w nim ewidentne niedopatrzenia. Ale zarazem niesie ze sobą pewne ważne korzyści.

Podejście to cieszy się uznaniem i jest rozpowszechnione w świecie polityki i biznesu, co sprawia, że jest użyteczne przy analizie i – co nie mniej istotne – komunikowaniu niektórych kluczowych kwestii dotyczących oddziaływania AI. To skuteczne narzędzie, ponieważ wiele osób już teraz zastanawia się, jak uniknąć negatywnego wpływu w obszarach SDG. Dlatego postrzeganie oddziaływania AI przez pryzmat celów zrównoważonego rozwoju jest korzystne. Jest ono także proste do wykorzystania w wymiarze pedagogicznym. Pozwala na stawianie pytań o to, jak sztuczna inteligencja oddziałuje na te poszczególne obszary.

A zatem choć cele zrównoważonego rozwoju nie są tutaj optymalnym narzędziem, okazują się zarazem bardzo przydatne i skuteczne, ponieważ wiele osób już z nich korzysta. Szczególnie w świecie biznesowym, gdzie zewsząd dziś słychać, jak ludzie radzą sobie ze zrównoważonym rozwojem czy ESG (Environmental, Social, and corporate Governance – odpowiedzialność środowiskowa i społeczna oraz ład korporacyjny – red.)

Cele zrównoważonego rozwoju obejmują trzy ogólne obszary (gospodarcze, społeczne i środowiskowe), 17 głównych celów i 169 zadań. Podkreślasz, że owych celów i zadań nie należy postrzegać w oderwaniu od siebie, ponieważ dotyczą wielu wzajemnie powiązanych kwestii. Aby skutecznie radzić sobie z takim złożonym zbiorem problemów w kontekście AI, potrzeba zaawansowanego rozwiązania. Czy możesz opisać swoją metodę oceny sztucznej inteligencji odnoszącą się do SDG?

Dzięki mojemu podejściu łatwiej rozróżnić poszczególne rodzaje efektów. Robię to na dwa podstawowe sposoby. Chodzi o rozróżnienie bezpośrednich i pośrednich efektów oraz trzech poziomów oddziaływania.

Zacznijmy od efektów bezpośrednich i pośrednich. Jeśli na przykład używasz AI, by poprawić nauczanie, wówczas możliwy jest bezpośredni wpływ na cel 4 (edukacja). Choć może to być dobre samo w sobie, to wysokiej jakości powszechna edukacja niemal na pewno pośrednio wpłynęłaby korzystnie także na zmniejszenie ubóstwa, jak również na kwestie związane z żywieniem i zdrowiem oraz na ograniczenie nierówności. Mamy więc tutaj pośrednie efekty jednego działania ukierunkowanego na konkretny cel. Określam to mianem efektu domina.

W przypadku niektórych celów ten efekt jest bardzo silny, i może być zarówno pozytywny, jak i negatywny. Spójrzmy na cel 8, którym jest wzrost gospodarczy. Wiele osób z branży technologicznej twierdzi dziś, że gospodarka oparta na danych rozwija się dzięki nim i że to one napędzają wzrost gospodarczy. Tylko że cel 8 mówi, że ten wzrost powinien być inkluzywny i zrównoważony. Ma być zatem korzystny także dla osób najbardziej potrzebujących. Jego charakter jest redystrybutywny w tym sensie, że dotyczy wszystkich wątków sprawiedliwego rozwoju. W takiej sytuacji rzeczywisty realizacja celu 8 może mieć pozytywny wpływ w niemal każdym obszarze. I odwrotnie: jeśli generujemy więcej niezrównoważonego i nieinkluzywnego wzrostu gospodarczego, który promuje koncentrację bogactwa wśród wąskiej grupy ludzi czy korporacji, wówczas będzie to skutkowało negatywnym efektem domina niemal w każdym z pozostałych celów.

Po prostu nie można postrzegać technologii w sposób wyabstrahowany – jako zorientowanej na jeden konkretny problem. Te systemy są częścią szerszych społecznych i ekonomicznych sieci relacji. Właśnie za takim kontekstowym podejściem oręduję.

Mamy też trzy poziomy oddziaływania.

Tak, chodzi o poziomy mikro, mezo i makro. Spójrzmy na sztuczną inteligencję i wirtualną rzeczywistość (virtual reality, VR) w edukacji. Na przykład na wykorzystanie rozwiązań VR w pracy z osobami z autyzmem albo tworzenie asystentów opartych na AI do wspierania nauki dzięki generatywnej sztucznej inteligencji czy analityce uczenia. Możemy tu rozróżnić pozytywne i negatywne efekty, które dotyczą różnych osób korzystających z którejś z tych technologii. To oddziaływanie na poziomie mikro.

Dalej mamy wpływ na grupy ludzi. To tu pojawia się dyskryminacja i skrzywienia algorytmiczne. Chodzi np. o to, czy inteligentny asystent lepiej działa w przypadku określonej płci. A także o to, że sztuczna inteligencja stworzona w jednej części świata może nie nadawać się do zastosowania w innej. Może chodzić o różnice w oddziaływaniu na grupy ludzi czy regiony zarówno w skali kraju, jak i między państwami. Popatrzmy raz jeszcze na wirtualną rzeczywistość. Zapewne nie wszystkie szkoły stać na najnowsze i najbardziej skuteczne narzędzia z tego obszaru bądź też nie wszystkie posiadają niezbędną infrastrukturę czy kompetencje potrzebne do jej użycia. Gdy tak się dzieje, technologia może zwiększać różnice, co nie sprzyjałoby realizacji celu 4, a z pewnością także 10. I tu mówimy o poziomie mezo.

Wreszcie dochodzimy do poziomu makro, który jest największy. Chodzi o systemy gospodarcze i polityczne, np. o sposoby, w jakie AI wpływa na dystrybucję bogactwa czy na przejrzystość politycznych instytucji.

Wszystkie te poziomy są potrzebne, ponieważ dzięki nim widać, gdzie dochodzi do poszczególnych oddziaływań. To chroni nas przed stwierdzeniami w stylu: sztuczna inteligencja przynosi tutaj pozytywne efekty, dlatego musi być dobra. Zyskujemy szerszy obraz, co przekłada się na lepszą analizę.

Kiedy myślimy o wdrażaniu etyki sztucznej inteligencji, na myśl przychodzą trzy główne kwestie. Praktyczna, dotycząca operacjonalizacji wymogów etyki AI (metody, narzędzia, dobre praktyki, testowanie itp.). Formalna – związana z instytucjonalizacją (sposoby zapewniania zgodności z wymogami poprzez regulację, samoregulację, raportowanie ESG). I systemowa – odnosząca się do integracji etyki (ujmowanie różnych aspektów oddziaływania AI w jednej całościowej analizie). Która z tych kwestii wydaje się dziś największym wyzwaniem i dlaczego?

Myślę, że integracja czy – innymi słowy – dostrzeganie szerszego obrazu, co wiąże się również z zaprzestaniem traktowania etyki albo regulacji AI jako czegoś nowego. Bo sztuczna inteligencja traktowana jest często jak coś, co pojawiło się znienacka i do czego potrzeba zupełnie nowych podejść. Tymczasem mamy długą historię mówienia o inteligentnych czy autonomicznych technologiach. W dalszym ciągu można się sporo dowiedzieć choćby z prac Langdona Winnera czy Jacques’a Ellula. Winner tak pisał o autonomicznej technologii, że gdyby to dziś opublikować, ludzie myśleliby, że chodzi o AI.

Dostrzeganie szerszego obrazu, w ramach którego kwestie te były kontekstualizowane w filozofii techniki, etyce komputerowej czy w innych dobrze ugruntowanych dziedzinach, a nawet w etyce prywatnej, ma zasadnicze znaczenie. Ponieważ wiele spośród poruszanych od lat kwestii znajduje dziś zastosowanie także do AI. Myślę, że jednym z najbardziej palących wyzwań jest to, jak uniknąć marnowania czasu na powielanie rozwiązań, które istnieją od dłuższego czasu.

Nie zmienia to jednak faktu, że wciąż potrzebujemy kodyfikowania czy przekładania tych szerszych kwestii etycznych, tak by były one odpowiednie do problemów, z którymi dziś mierzą się inżynierowie czy firmy rozwijające AI. Wymaga to więcej regulacji i to właśnie robi Unia Europejska. Podoba mi się podejście regulacyjne –  w przeciwieństwie do forsowania etyki zawodowej, gdzie głównymi graczami są same branże. Działania polityczne i rządowe są tu potrzebne, ponieważ nie uważam, by przedstawiciele biznesu szczególnie dbali o interes publiczny. A przynajmniej nie zawsze tak się dzieje.

Dążenie do bardziej zintegrowanego podejścia w radzeniu sobie z technologiami jest też widoczne w twoim ostatnim artykule napisanym wspólnie z Johnem Danaherem, w którym poruszacie problem przyrostu nowych dziedzin etyki w obrębie technologii cyfrowych. Dziś różni eksperci mówią o etyce technologii, etyce AI, etyce komputerowej, etyce cyfrowej, roboetyce itp. Jest to poniekąd zrozumiałe, ponieważ w przypadku poszczególnych technologii potrzeba praktycznych rozwiązań określonych problemów. Wy dostrzegacie jednak także ryzyka związane z tą fragmentaryzacją. Które z nich są tutaj największe i do kogo przede wszystkim kierujecie swój apel o większą integralność etyki?

Przede wszystkim chcę zaznaczyć, że istnieje uzasadnione zapotrzebowanie na różne dziedziny etyki ze względu na operacjonalizację, czyli z przyczyn praktycznych. Kiedy na przykład szkoli się ludzi odpowiedzialnych za tworzenie miejskich polityk publicznych nie można oczekiwać, że będą zapoznawali się z historią rozwoju etyki komputerowej. Przeciwnie, trzeba im wyjaśnić: to nowy system, który robi to i to, i musimy być świadomi jego oddziaływania w konkretnych obszarach.

Tak więc praktyczne zapotrzebowanie na różne dziedziny w obrębie etyki technologii zdecydowanie istnieje. Uważam jednak także, że etycy powinni dyskutować o poszczególnych problemach na właściwym poziomie, i gdy tylko schodzą jeden bądź dwa poziomy niżej (np. z etyki inżynierskiej do etyki komputerowej czy etyki AI), to musimy mieć pewność, że obszar, którego dotyczy ten nowy poziom czy dziedzina, ogranicza się wyłącznie do tej jednej technologii. A jeśli jest inaczej, wówczas nie ma potrzeby, abyśmy przechodzili na ten nowy poziom. Możemy dalej rozmawiać w kontekście ogólnych implikacji technologii i w ten sposób ułatwiać debatę między różnymi dziedzinami.

Na przykład wiele osób mówi dziś o etyce robotów, podczas gdy w rzeczywistości chodzi im o sztuczną inteligencję czy społeczną AI. Dlaczego do tego dochodzi? Ponieważ kryteria umożliwiające nazwanie czegoś mianem etyki robotów powinny obejmować ucieleśnioną sztuczną inteligencję, jednak nie zawsze tak się dzieje.

Myślę, że obecnie mamy do czynienia z ogólnym pomieszaniem pojęć, ponieważ ludzie określają te same rzeczy za pomocą różnych etykietek i przestają dostrzegać ważne lekcje płynące z historii takich dziedzin, jak etyka technologii czy etyka prywatności. To także problem z programistami, którzy nie dysponują filozoficznym zapleczem w obszarze etyki technologii. Musimy zatem rozwijać dyskusję, która pozwoli wyjaśnić, jakimi rozwiązaniami już dysponujemy i w jaki sposób można je zastosować do nowych technologii.

Najpoważniejszym ryzykiem jest w tym kontekście powielanie wysiłków, co może skutkować gorszej jakości badaniami. Bo ludzie myślą, że odkryli nowe podejście do problemu, podczas gdy w rzeczywistości jest to rozwiązanie dyskutowane od dwudziestu lat, tyle że gdzie indziej: w innej dziedzinie czy innym obszarze etyki.

Porozmawiajmy o napięciach między etycznością i politycznością. Niektórzy zarzucają etyce AI prywatyzowanie odpowiedzialności. Twierdzą, że aby uporać się kwestiami dotyczącymi sfery publicznej, powinniśmy sięgać raczej po narzędzia z obszaru filozofii politycznej. Czy uważasz, że ten podział na etyczne i polityczne ma tutaj sens? A jeśli tak, to co jest sednem problemu?

Zdecydowanie uważam, że powinniśmy pamiętać o różnicach między etyką a polityką. Wspólnie z Eduardem Foschem Villarongą napisałem artykuł Research in AI has Implications for Society: How do we Respond? (Badania nad sztuczną inteligencją mają implikacje społeczne: jak na nie odpowiemy? – red.) Jego podtytuł brzmi: The Balance of Power between Science, Ethics, and Politics (Równowaga między nauką, etyką i polityką – red.) To trzy odrębne domeny, które mają do odegrania określone role.

Niekiedy ludzie sądzą, że etyka może być podstawą polityki. Sądzę, że to błąd. W etyce chodzi o wyodrębnianie, odkrywanie i próbę zrozumienia moralności oraz normatywnych implikacji określonych aspektów naszego zachowania czy istnienia. Na przykład kiedy rozwijamy jakąś technologię, zadaniem etyka jest wydobyć na jaw jej implikacje.

Uważam jednak, że to do polityki należy decyzja, jakiego społeczeństwa chcemy. Oczywiście etycy mogą tworzyć wytyczne i pisać artykuły na temat implikacji moralnych określonych decyzji, ale przecież musimy szanować demokrację i procesy polityczne i pozwolić ludziom na podejmowanie decyzji. Myślę, że dobrze, że tak się dzieje, ponieważ w przeciwnym razie mielibyśmy do czynienia albo z umoralnioną wersją polityki, albo z upolitycznioną etyką. Dlatego naprawdę trzeba trochę oddzielać od siebie te obszary. Wiem, że to kontrowersyjna kwestia, ale liberalna część mnie jest mocno przekonana, że polityka nie powinna być zbyt silnie powściągana przez etykę, bo pluralizm i przestrzeń na życie zgodnie z różnymi wartościami i ideałami są naprawdę ważne.

Ale bardzo ważne jest też zapewnienie nauce, by nie była w pełni zależna od polityki czy etyki. To jeszcze bardziej kontrowersyjna kwestia, wiem o tym. Oczywiście nauce muszą towarzyszyć jakieś ograniczenia. Ale tu ważne jest rozróżnienie między dziedzinami. Nauka wyjaśnia świat i daje początek nowym technologiom i wywołanym przez nie zmianom. Etyka dokonuje ewaluacji i stara się odpowiedzieć na pytanie, co się zdarzy, gdy zrobimy to czy tamto. Wreszcie polityka określa, czy powinniśmy wprowadzić w życie różne odkrycia. Sfera polityczna powinna przy tym oczywiście opierać się na radach etyków oraz właściwym zaangażowaniu obywateli.

À propos nauki, w innym swoim artykule poruszasz kwestię wpływu dyskursu naukowego dotyczącego robotów na postrzeganie siebie przez ludzi. Nazywasz ten efekt mianem robotomorfii (robotomorphy). Wydaje się, że wraz z dążeniem do antropomorfizowania maszyn to dwie strony tego samego medalu. Postrzegamy roboty jako podobne do nas i zaczynamy patrzeć na siebie, jak gdybyśmy sami byli robotami. Czy możesz wyjaśnić, na czym polega mechanizm tego zjawiska?

Pomysł robotomorfii jest nowy, jednak źródło pojęcia można znaleźć w książce Arthura Koestlera The Ghost in the Machine (Duch w maszynie – red.), gdzie ubolewał on, że podejście behawiorystów do nauk o człowieku prowadzi do – jak to określał – szczuromorfii (ratomorphy). Skoro nie możemy prowadzić eksperymentów na ludziach, zaczynamy je robić na szczurach. Ale wtedy popełniamy błąd polegający na założeniu, że jesteśmy jak one. Szczury są przedmiotem naszych badań i podstawą naszych odkryć naukowych. Tym sposobem przenosimy to, nad czym pracujemy, z powrotem na ludzi, często dość bezkrytycznie. To właśnie stąd zaczerpnąłem inspirację, by ukuć termin robotomorfia.

Mechanizm wewnętrzny robotomorfii działa w dwóch kierunkach. Po pierwsze, jako ludzie staramy się zrozumieć samych siebie wytwarzając maszyny, które nas przypominają. I tak na przykład próbujemy zbudować sztuczną inteligencję opartą na sieciach neuronowych, które zawdzięczają swe powstanie naszym wyobrażeniom na temat tego, jak działa człowiek. A gdy te maszyny już powstaną i zaczną działać, wówczas popełniamy błąd i dostrzegany maszyny w samych sobie. Zaczynamy sprowadzać siebie do tego, co jesteśmy w stanie stworzyć w maszynach. A to ogranicza człowieczeństwo. Fenomenologia, wszelki formy doświadczenia, które stanowią ważną część bycia człowiekiem, zostają porzucone, ponieważ nie należą do procesów, które możemy zaobserwować lub odtworzyć w maszynach.

Drugi aspekt dotyczy coraz silniejszego traktowania maszyn jako punktów odniesienia przy ocenianiu ludzi oraz określaniu naszych dążeń i ideałów. Kiedyś na przykład mierzyliśmy postęp programów grających w szachy czy go porównując ich osiągnięcia z ludzkimi możliwościami. Ale teraz to programy są najlepsze i je właśnie traktujemy jako wzór.

W tradycji zachodniej nauki postrzegamy racjonalność, optymalizację i wydajność jako ideały, a tak się składa, że maszyny potrafią im dziś coraz lepiej sprostać. Tym sposobem zaczynamy się dostosowywać do tego, co najlepiej służy szerszemu systemowi, w którym to maszyny odgrywają coraz istotniejszą rolę. Oznacza to, że siebie kształtujemy na podobieństwo maszyn. Weźmy nudging (ang. szturchanie,  termin w psychologii behawioralnej opisujący kształtowanie pożądanych zachowań ludzkich przez odpowiednie projektowanie przestrzeni czy urządzeń, aniżeli przez racjonalną argumentację). Staramy się poprawiać ludzkie błędy, ponieważ wszystko co ludzkie kojarzy nam się z zawodnością i pomyłką – antytezami racjonalności i optymalizacji.

Chciałbym zakończyć pytaniem o big data jako ideologię w nauce. W swoim kolejnym artykule piszesz, że big data jest dziś traktowana jako nauka nauk (master science) – swego rodzaju ostateczny paradygmat naukowy. To wszystko przypomina jednak wskrzeszanie starego pozytywistycznego marzenia. Czy mamy tu do czynienia z czymś naprawdę nowym, czy to tylko powtórka z tego, czego już doświadczyliśmy przed ponad stu laty?

To poszukiwanie najwyższej formy nauki ma już wiele lat i jest silnie spokrewnione z pozytywizmem i behawioryzmem, ale także z myślą wcześniejszych filozofów, jak np. piszący w XVII w. Thomas Hobbes. Chodziło o próbę odkrycia ogólnych zasad rządzących naturą i przekonanie, że możemy postrzegać ludzi jako część świata naturalnego, którego prawa poznajemy dzięki obserwacji.

Mój artykuł na ten temat powstał w 2018 r., ale dziś ten problem tylko się nasilił i jest jeszcze bardziej palący. Na przykład któregoś dnia Yann LeCun i Meta (firma dawniej znana jako Facebook – red.) poinformowali o nowym odkryciu: wykorzystując uczenie głębokie odkryli ciemną materią cząsteczek. Sztuczna inteligencja dokonuje dziś takich odkryć, a ludziom często pozostaje zastanawiać się, jak to się dzieje.

Ma to związek ze starym poglądem głoszącym, że sztuczna inteligencja będzie wolna od teorii, ideologii, a także ludzkich uprzedzeń i błędów. Przypuszczam jednak, że dziś bardzo niewielu ludzi szczerze wierzy w obiektywność AI. Jeśli choćby w minimalnym stopniu zetknęli się z bieżącymi dyskusjami wokół etyki sztucznej inteligencji, muszą wiedzieć, że sposoby, w jakie zbiera i kontekstualizuje się dane oraz jak stosuje się algorytmy, są w oczywisty sposób subiektywne czy związane z ludzkimi decyzjami, które mają wpływ na działanie AI. I ten ludzki pierwiastek jest dla nich bardzo niepokojący – niektórzy postrzegają go wręcz jak szum (utrudniający dostęp do obiektywnej wiedzy – red.)

Musimy jednak dążyć do tego, by nauka nie była postrzegana wyłącznie jako poszukiwanie obiektywnych mechanicznych praw rządzących wszechświatem, lecz także jako demokratyczne przedsięwzięcie, które ma ogromne konsekwencje społeczne. Ludzkie decyzje i władza są głęboko zależne od tego, o czym debatujemy i w jaki sposób ujmujemy dyskutowane kwestie.

Nawiązując do pierwszego pytania: czy traktowanie big data albo AI jako najwyższej formy nauki nie jest aby przykładem izolacjonizmu?

Może się z tym wiązać. Myślę, że dzieje się tak, ponieważ chodzi o podejście, w którym w ostatecznym rozrachunku ludzie – często nieświadomie – odrzucają wszystko, co wykracza poza paradygmat AI lub nie daje się w ten sposób poznać.

W analizach AI musimy uwzględniać kontekst oraz ludzki i społeczny pierwiastek. Wiele z tego, co określamy mianem technosolucjonizmu, nazbyt często w szkodliwy sposób ignoruje liczne kwestie o podstawowym znaczeniu dla naszej egzystencji. Tracimy z oczu wiele aspektów ludzkiego doświadczenia, gdy ograniczamy się do takiego maszynowego, dostosowanego do sztucznej inteligencji modelu uprawiania nauki. Nie możemy wszystkiego zoptymalizować i zracjonalizować. Nie powinniśmy.

* Dr Henrik Skaug Sætra – doradca w obszarze sustainability i badacz specjalizujący się w naukach politycznych. Dysponuje szerokim interdyscyplinarnym zapleczem teoretycznym i metodologicznym. Skupia się głównie na politycznych, etycznych i społecznych implikacjach technologii. W centrum jego badań znajduje się oddziaływanie AI na zrównoważony rozwój. Opublikował monografię oraz szereg artykułów na temat AI, ESG i SDG.

Read the English version of the interview HERE

Skip to content