Close

Bernd C. Stahl:
W centrum etyki AI
jest ludzka szczęśliwość

Jeśli projekt unijnej regulacji sztucznej inteligencji wejdzie w życie i zostanie uzupełniony o wymóg wykorzystania podejścia typu ethics by design w systemach AI o wysokim stopniu ryzyka, wówczas liczba jego wdrożeń wzrośnie, bo firmy będą musiały się dostosować – mówi prof. Bernd C. Stahl w rozmowie z Maciejem Chojnowskim.

Maciej Chojnowski: W swojej niedawno wydanej książce wyróżniasz trzy główne obszary w dzisiejszym złożonym krajobrazie etyki sztucznej inteligencji: konkretne kwestie związane z uczeniem maszynowym, społeczne i polityczne zagadnienia dotyczące życia w cyfrowym świecie, oraz pytania metafizyczne o naturę człowieka i status maszyn. Proponujesz także klasyfikację mechanizmów zarządzania etyką AI: dotyczą one polityk, mechanizmów organizacyjnych oraz indywidualnych. Czy te kwestie powinny być postrzegane jako osobne, czy wzajemnie się uzupełniające?

Bernd C. Stahl*: Dyskurs wokół etyki AI jest ogromny i poprzez tę kategoryzację starałem się go uczynić łatwiejszym do objęcia. Ale w klasyfikacji problemów etycznych nie ma sztywno wytyczonych granic. Konkretne kwestie związane z uczeniem maszynowym i zagadnienia dotyczące życia w cyfrowym świecie tak naprawdę nie są dwiema osobnymi rzeczami. Pierwsze mają wpływ na drugie. Starałem się więc nadać temu chaosowi jakiś porządek z pełną świadomością, że jest on tymczasowy i w pewnym sensie arbitralny.

Takie klasyfikacje odpowiadają nie tylko potrzebom teoretycznym, ale także praktycznym.

Tak, myślenie w tych kategoriach ma sens, ponieważ pozwala rozróżnić podobne typy problemów oraz sposobów reagowania na nie. Spójrzmy na uprzedzenia i niesprawiedliwą dyskryminację. To potężne zjawiska przenikające wszystkie społeczeństwa. Ale w przypadku uczenia maszynowego rozumiemy już część mechanizmów, które do nich prowadzą, i możemy znaleźć sposoby, żeby sobie z nimi radzić.

Istnieją jednak także problemy społeczne, które nie są podatne na techniczne rozwiązania. Sprawiedliwy podział dóbr czy zmieniający się charakter wojen to poważne kwestie, których nie rozwiążą poszczególne osoby ani pojedyncze, nawet silne państwa. Dotyczą one dystrybucji dóbr w poszczególnych krajach oraz między nimi. Część z tych problemów będzie podlegać tradycyjnym mechanizmom interwencji, od opodatkowania po odpowiedzialność prawną. Inne będą wymagały porozumień międzynarodowych.

Są wreszcie kwestie, które nazywam pytaniami metafizycznymi. To poniekąd odwieczne pytania. Sztuczna inteligencja sprawia, że ponownie zastanawiamy się nad naturą ludzką. Nie chodzi mi o scenariusze rodem z Terminatora. Mam na myśli fundamentalne pytania, które odgrywają istotną rolę w naszym myśleniu o technologii i integralności ludzkiej. Są ważne, choć może nigdy nie uda się ich rozstrzygnąć.

Czy można stworzyć matrycę, która pozwalałaby połączyć te dwie taksonomie: obszary problemowe i konkretne mechanizmy zarządzania?

Do pewnego stopnia tak, na pewno w przypadku konkretnych problemów związanych z uczeniem maszynowym. Możemy choćby myśleć nad tym, w jaki sposób powinno się przypisywać odpowiedzialność. Projekt regulacji AI zaproponowany przez Komisję Europejską próbuje właśnie to robić: zastanowić się, jakie występują problemy, w jaki sposób można im zaradzić i kto powinien być za nie odpowiedzialny, jak w przypadku mechanizmu oceny zgodności ex ante.

Jednak gdy mowa o innych problemach, jest to znacznie trudniejsze, ponieważ stanowią one część dyskursu społecznego bądź politycznych negocjacji. Nie sądzę, byśmy nawet w obrębie europejskich społeczeństw byli zgodni, co dokładnie składa się na sprawiedliwą dystrybucję zasobów. Tym samym nie możemy mieć nadziei, że uda się znaleźć proste rozwiązanie problemu wydobywania wartości dodanej z danych osobowych. To zdecydowanie bardziej otwarte i dalej sięgające kwestie, w których swój udział ma wielu różnych graczy. Rządy, firmy, ale także społeczeństwo obywatelskie, które może mieć duży wpływ na stymulowanie tej debaty.

W ostatnim czasie wiele firm bądź międzynarodowych grup eksperckich opublikowało wytyczne zawierające zasady etyki sztucznej inteligencji. Jednak zdaniem Brenta Mittelstadta, jedną z przyczyn, dla których oparte na zasadach podejście do etyki AI musi powodować problemy, jest brak wspólnych celów wśród osób rozwijających AI. To właśnie odróżnia sztuczną inteligencję od medycyny, na której kodeksach etycznych oparto zasady AI. Czy idea ludzkiej szczęśliwości – widzianej jako cel sztucznej inteligencji, o czym ostatnio piszesz w swoich pracach – to próba rozwiązania problemu rozbieżnych celów w środowisku AI?

Powodem, dla którego do sztucznej inteligencji zastosowano podejście oparte na zasadach, jest fakt, że podobne rozwiązanie przyjęte w etyce biomedycznej okazało się mieć znaczące oddziaływanie polityczne. Jednym z plusów tego podejścia jest to, że już istnieje i do pewnego stopnia spełnia swoją rolę. Minusem, szczególnie w kontekście nowych technologii, jest to, że – w swoim pierwotnym kontekście – zostało oparte na powszechnym przekonaniu, że badania medyczne to generalnie coś dobrego.

Tymczasem w przypadku nowych technologii nie ma mowy o podobnie zgodnej ocenie. Wcale nie jest oczywiste, że sztuczna inteligencja jest rozwiązaniem, które cieszy się społecznym poparciem. Powstaje zatem fundamentalne pytanie, czy jako społeczeństwo chcemy wspierać określone działania. A na to pytanie etyka oparta na samych zasadach nie ma odpowiedzi. Postulat ludzkiej szczęśliwości jest zatem próbą poradzenia sobie z tym wyzwaniem. Widzimy, że jedne technologie są korzystniejsze pod względem etycznym, zaś drugie bardziej problematyczne lub co najmniej neutralne etycznie.

Pojęcie ludzkiej szczęśliwości współgra z przekonaniem, że to ludzie są stawką w tej grze. Nie tworzymy przecież AI dla samej AI, ale po to, żeby poprawiać świat. Ale poprawa świata nie sprowadza się do maksymalizacji zysków czy lepszej wydajności maszyn. Sięga dużo dalej. W istocie dotyczy tego, kim ludzie chcą być, jaki rodzaj życia wieść, w jaki sposób osiągać swoje cele. Dlatego właśnie wprowadziliśmy pojęcie ludzkiej szczęśliwości do projektu SHERPA.

Patrząc na ten pomysł od strony praktycznej, czy uważasz, że może on być przeciwwagą dla innych ogólnych podejść do etyki, jak deontologia czy utylitaryzm? Czy jego wprowadzenie ma jakąś realną przewagę nad pozostałymi teoriami?

Łatwo znaleźć przykłady wykorzystania utylitarnego podejścia do sztucznej inteligencji. O to właśnie chodzi w wielu eksperymentach myślowych dotyczących pojazdów autonomicznych: czy w sytuacji podbramkowej powinny one zabić jedno dziecko, czy może troje starszych osób? Myślę, że pomysł ludzkiej szczęśliwości może tu działać jak kontrapunkt. Wybraliśmy go, ponieważ pomaga stymulować refleksję w obszarach, w których jest ona potrzebna. Ale to zarazem tylko jeden punkt widzenia.

Wiele zagadnień etycznych odnosi się do rozwiązań wypracowanych w ramach jednej z trzech wielkich teorii: utylitaryzmu, deontologii i etyki cnót. Nie postrzegam ich jako wzajemnie sprzecznych, ale raczej jako różne sposoby patrzenia na ten sam problem, które mogą prowadzić do różnych wniosków. Jednak żadna z nich nie ma prawa twierdzić, że posiada to jedno właściwe rozwiązanie, które powinniśmy zastosować.

Czy uważasz, że etyka sztucznej inteligencji dotyczy inżynierów bądź osób wdrażających AI, czy może także tzw. sztucznych podmiotów moralnych? Zdaniem niektórych badaczy, jak Aimee van Wynsberghe czy Scott Robbins, w ogóle nie potrzeba nam moralnych maszyn. Jakie jest twoje zdanie?

Zgadzam się z nimi, ponieważ uważam, że technologie, którymi obecnie dysponujemy, nie są zdolne do przejawiania jakiejkolwiek znaczącej moralnej aktywności. Możemy kazać maszynie coś zrobić, ale nie możemy zmusić jej do refleksji nad tym, co zrobiła, ani do znalezienia uzasadnienia dla swojego czynu. A nawet gdyśmy mogli, to zapewne wciąż nie odpowiadałoby to temu, co w analogicznej sytuacji robią ludzie.

Ludzka etyka ma wiele wspólnego z naszą naturą: jesteśmy ucieleśnionymi istotami, wiemy, że wiedziemy skończone życie, że umrzemy, znamy cierpienie i żyjemy pośród innych istot mających taką samą naturę jak my. Uważam, że wszystkie te czynniki mają znaczenie w przypadku ludzkiej etyki.

Zatem dopóki nie jesteśmy w stanie stworzyć maszyn mających podobne do nas cechy, etyka w maszynie byłaby czymś kompletnie różnym od naszej. Dlatego myślę, że pomysł moralnych maszyn nie ma zbyt wiele sensu. Uważam jednak, że warto pytać, co maszyna powinna robić w określonych sytuacjach, jak w tym przykładzie z autonomicznymi pojazdami. Jeśli pojazd może działać bezpiecznie, to warto się nad tym zastanawiać. Ale jest to bardzo odległe od etyki w jej ludzkim rozumieniu.

Dlatego zgadzam się z tymi, którzy twierdzą, że etyka maszyn tak naprawdę nie istnieje i zapewne w ogóle nie powinna istnieć. Nie powinniśmy tworzyć niczego, co zbytnio nas przypomina, ponieważ może to zaciemnić obraz, czym w istocie jest moralny podmiot. Zarazem nie uważam, żeby był to problem, którym będę musiał się przejmować za swojego życia, ponieważ maszyny nawet nie zbliżają się do podobnego poziomu.

W kontekście autonomicznych pojazdów warto zapytać, czy w tym wypadku powinniśmy skupiać się na samej etyce, czy raczej przyjąć szerszą perspektywę filozofii politycznej. Pierwsza z nich może zanadto koncentrować się na jednostce, podczas gdy druga skłania nas do refleksji nad całym społeczeństwem. Czy uważasz, że obecnie etyka AI obejmuje także filozofię polityczną, czy może dopiero powinniśmy uwzględnić tę szerszą perspektywę?

Jak w wielu innych wypadkach, odpowiedź zależy od przyjętej definicji. Jeśli zakładamy, że etyka dotyczy jednostki, to takie rozgraniczenie nie jest niczym błędnym. Jednak jednym z powodów, dla których podoba mi pojęcie ludzkiej szczęśliwości oraz odczuwam pewną sympatię do etyki cnót, jest to, że dla starożytnych filozofów jak Arystoteles rozróżnienie na to, co indywidualne, i to, co polityczne, nie miało wielkiego sensu. Myślę, że podobnie jest z AI. Skupianie się tylko na jednostce w tym przypadku się nie sprawdzi.

W projekcie SHERPA używaliśmy pojęcia etyki AI, ponieważ dominuje ono w dzisiejszym dyskursie. Jednak w większości swoich prac wolę pojęcie odpowiedzialnych badań i innowacji, w którym ten szerszy społeczny kontekst jest od początku obecny. Nie chodzi tylko o to, co jednostka robi bądź czego nie robi, ale także o społeczne procesy, które ułatwiają powstawanie określonych zjawisk. W tym sensie etyka jest częścią szerszego dyskursu obejmującego politykę, socjologię oraz wiele innych dziedzin nauki i aspektów życia społecznego.

Wspomniałeś projekt SHERPA. Zanim przejdziemy do szczegółów, chciałbym zapytać o związek między SHERPA i siostrzanym projektem SIENNA. W obu przypadkach materiały dotyczące podejścia ethics by design zostały opracowane przez prof. Philipa Breya. Jak mają się one do siebie? Gdyby ktoś chciał wdrożyć jeden z tych dokumentów, który powinien wybrać?

Philip zaczął nad tym pracować w ramach projektu SHERPA, a skończył w SIENNA. Tak więc dokument powstały w projekcie SIENNA jest właściwym punktem odniesienia. Będzie on zresztą częścią przyszłych wytycznych Komisji Europejskiej dotyczących etyki AI.

Swoje wytyczne określacie mianem gotowych do użycia. Kto jest ich modelowym użytkownikiem i jakie umiejętności są potrzebne, żeby móc je wdrożyć? Czy do ich skutecznego wykorzystania potrzebne są kompetencje etyczne?

Zespół z Uniwersytetu Twente włożył dużo wysiłku, żeby ukształtować wytyczne zgodnie z istniejącymi metodykami rozwoju oprogramowania. Idea, która przyświecała tym działaniom, była taka, żeby ludzie tworzący systemy AI z wykorzystaniem metody agile czy jakiejkolwiek innej mogli użyć tych wytycznych do zmapowania istniejących procesów z wymogami etyki i w ten sposób włączyć je do procesu projektowania.

Z jednej strony, powinno to być względnie proste, jednak twórcom zapewne towarzyszyła też świadomość, że sprowadzenie tego po prostu do listy kontrolnej też nie rozwiązywałoby problemu. Do wdrożenia wytycznych będzie więc pewnie potrzebny interdyscyplinarny zespół mający pewną znajomość języka używanego w filozofii.

Jednak nie przetestowaliśmy jeszcze tych rozwiązań w praktyce. A zatem trudno mi powiedzieć, czy zadziałają. Do sprawdzenia tego będzie pewnie potrzebny kolejny projekt, w którym chętnie znalazłbym się wspólnie z wami.

Opracowanie przygotowane w ramach SIENNA sugeruje, że wdrożenie tych wytycznych może wymagać radyklanych zmian w procesach obowiązujących w organizacjach. Jakie warunki trzeba twoim zdaniem spełnić w tym obszarze, żeby z powodzeniem wdrożyć podejście ethics by design?

Myślę, że nie ma jednej odpowiedzi na to pytanie. Zależy to bowiem w dużym stopniu od tego, czym zajmuje się dana firma i jakich technologii używa. Przypuszczam, że w przypadku wielu firm, w których AI jest częścią procesów biznesowych, nie będzie to szczególnie kłopotliwe. Na przykład firma ubezpieczeniowa, która chce używać AI do wykrywania oszustw, może zapewne z powodzeniem wykorzystać podejście ethics by design do rozwiązania problemu dyskryminacji rasowej.

Ale w innego typu firmach problem może być poważniejszy. Jeśli ktoś używa sztucznej inteligencji do inwigilacji, sprostanie zasadom ethics by design i myślenie o etycznych konsekwencjach swojej działalności może ostatecznie prowadzić do decyzji o jej wstrzymaniu.

W raporcie podsumowującym projekt SHERPA jest mowa o ankiecie przeprowadzonej w trakcie jego realizacji. Tylko połowa respondentów potwierdziła, że w ich organizacjach działają jakieś mechanizmy etyczne. Ponieważ ankietowani należeli do grona osób świadomych etycznych wyzwań związanych z AI, można przypuszczać, że rzeczywisty procent organizacji włączających etykę w swoje codzienne działania jest jeszcze mniejszy. Czy sądzisz, że gdy podejście ethics by design trafi do szerszego grona odbiorców, liczba organizacji je przyjmujących wzrośnie, czy raczej spadnie? W przypadku niezbyt szczegółowych rekomendacji łatwo bowiem zadeklarować postępowanie zgodne z ogólnymi zasadami, ale skomplikowane mechanizmy wdrożenia konkretnego podejścia mogą być wyzwaniem. Jakiego scenariusza się spodziewasz? 

Myślę, że w dużej mierze będzie to zależało od nastrojów w otoczeniu, w którym działa dana firma. Jeśli projekt unijnej regulacji wejdzie w życie, a ponadto zostanie uzupełniony o wymóg wykorzystania podejścia typu ethics by design w systemach AI o wysokim stopniu ryzyka, wówczas liczba wdrożeń wzrośnie po prostu dlatego, że firmy będą musiały się dostosować.

Myślę również, że wpływ na wyższy procent wdrożeń mogą mieć czynniki zewnętrzne, jak opinia publiczna. Chodzi na przykład o kolejny wielki skandal, w którym jakaś firma używająca AI wypadnie z biznesu po tym, jak zrobi coś naprawdę głupiego i szkodliwego. Wtedy inni powiedzą: oj, musimy się bardziej postarać.

Jednak z drugiej strony może być i tak, że im bardziej szczegółowe wymagania, tym trudniej będzie je wdrożyć. To również kwestia wyboru. Rynkowi gracze po to dostają od nas wytyczne dotyczące etyki, żeby jak najszerzej stosować je w obszarze AI. Ale firmy mogą wybrać inne podejście, jak ocena oddziaływania, i stwierdzić, że tak radzą sobie z tą kwestią. Inne mogą włączyć etykę do społecznej odpowiedzialności biznesu, inne do due dilligence bądź do obszaru poszanowania praw człowieka. Te rozwiązania mogą w ogóle nie być realizowane pod szyldem etyki, a jednak spełniać swoją funkcję. Można na wiele różnych sposobów rozmawiać o podobnych sprawach.

Z drugiej strony unijny program Horyzont Europa będzie wspierał podejście ethics by design w projektach badawczych dotyczących AI. Wspomniałeś też, że Komisja Europejska wskaże je jako właściwe do operacjonalizacji wcześniej opublikowanych ogólnych wytycznych. Wydaje się, że tworzy to szansę na szersze przyjęcie tego podejścia.

W ramach Horyzontu Europa – tak, Komisja chce wykorzystać to podejście i uczynić je obowiązkowym. Zamierza wprowadzić je do wytycznych dla osób składających wnioski o granty dotyczące prac nad AI. Zważywszy że w programie jest około 10 miliardów euro na projekty związane z AI, będzie to znacząca inwestycja w badania. Jeśli więc wszystkie projekty korzystające z tych środków wdrożą opracowane przez SHERPA podejście ethics by design, będzie to oczywiście znaczące.

Jednak w porównaniu z całym globalnym rynkiem badań i rozwoju w obszarze AI, program Horyzont Europa jest względnie mały. Jeśli porównać go z firmami w rodzaju Facebooka, Google’a czy Amazona, ich budżety są w tym kontekście znacznie większe. A zatem wdrożenie ethics by design będzie zależało od tego, czy to podejście okaże się skuteczne. Jeśli firmy, które się z nim zetkną, powiedzą: przekonaliśmy, że to dobry sposób, wówczas możliwe, że będzie on zyskiwać coraz większą popularność. Najpierw na poziomie europejskim, a potem pewnie światowym.

Pomówmy zatem o globalnym krajobrazie. Krytycy unijnej koncepcji godnej zaufania sztucznej inteligencji twierdzą, że Europie będzie bardzo trudno dogonić światowe potęgi AI, czyli USA i Chiny. Jak ty to postrzegasz?  

Kilka lat temu Elsevier opublikował wyniki badań dotyczących globalnych prac badawczych nad AI. Przeanalizowano cytowalność i rejony, z których pochodziło najwięcej artykułów naukowych poświęconych tej tematyce. W zestawieniu pojedynczych krajów Stany Zjednoczone zdecydowanie zajmowały pierwsze miejsce. Kolejne były Chiny. Ale gdy zebrano razem kraje europejskie, wówczas zarówno pod względem cytowalności, jak i liczby publikacji przewyższały one tak USA, jak i Chiny. Nie jestem więc przekonany, byśmy na poziomie naukowym pozostawali w tyle. Natomiast na pewno jesteśmy w tyle, jeśli chodzi o najważniejszych graczy na rynku: Google, Apple, Facebook, Alibaba itd. – to wszystko amerykańskie bądź chińskie firmy.

Inną kwestią jest to, czy nasze podejście do etyki AI stanowi barierę rynkową. Są ludzie, którzy mówią: chcę stworzyć start-up rozwijający AI i nie będę tego robić w Europie, bo to tutaj zbyt uciążliwe. W tej chwili trudno wyrokować, czy tak właśnie będzie, ponieważ nie wiemy, jaki dokładnie będzie kształt unijnej regulacji dotyczącej AI.

Jednak pomocne może się tu okazać przyjrzenie się podobnym rozwiązaniom, szczególnie RODO. Mamy do czynienia z dwiema narracjami: jedna mówi, że RODO zaszkodzi europejskim firmom, bo będą musiały się dostosować do dodatkowych biurokratycznych obciążeń. Konkurencyjna narracja twierdzi natomiast, że RODO ustanawia standard i zmusza wszystkich, którzy chcą być częścią europejskiego rynku, aby sprostali wymaganiom sformułowanym w Europie. I z pewnością można znaleźć dowody na słuszność tej drugiej tezy.

Możemy spodziewać się podobnych antagonistycznych narracji także w przypadku AI. Nie sądzę, byśmy mieli tu jedną dominującą wersję. Z perspektywy Europy pytanie brzmi: czego chcemy? Działać w interesie naszych obywateli? Myślę, że taka jest obecna postawa. A jeśli tak i jeśli AI budzi określone zastrzeżenia, to musimy na nie odpowiedzieć i bieżące podejście jest najlepszym, co możemy wymyślić.

Na koniec chciałbym się odnieść do słów Albeny Kuyumdzhievy wypowiedzianych podczas podsumowania projektu SHERPA, a dotyczących zachęt do wdrażania etyki AI. Jej zdaniem fundamentalne znaczenie ma przełożenie wymogów etycznych na przewagi konkurencyjne. Wierzysz, że tak się stanie?

Tak, ponieważ ludzie obawiają się tego, co może im zrobić sztuczna inteligencja, a także dlatego, że trwa poważna dyskusja o możliwych konsekwencjach jej bezrefleksyjnego użycia. Ludzie mają wysoką świadomość przynajmniej części tych kwestii, jak choćby negatywnych skutków dyskryminacji czy masowej inwigilacji, i nie chcą tego. I czy odbędzie się to przez regulację, czy dobrowolne dostosowanie do standardów, czy w jeszcze inny sposób, to jeśli firmy będą w stanie pokazać, że rozważyły te kwestie i traktują je poważnie, może się to dla nich stać przewagą na tle konkurencji.

Możliwe są rozmaite mechanizmy informowania o tym, że firma podchodzi poważnie do tych obaw. Oznaczenia na stronie internetowej identyfikujące firmę godną zaufania, certyfikaty albo baza danych, którą Komisja chce stworzyć dla projektów wysokiego ryzyka. Jeśli tak się stanie i konsumenci będą na to zwracać uwagę, wtedy może się udać.

 

* Prof. Bernd Carsten Stahl – filozof, dyrektor Centre for Computing and Social Responsibility na Uniwersytecie De Montfort w Leicester, zajmuje się problematyką filozoficzną powstałą na styku obszarów biznesu, technologii i informacji, ze szczególnym uwzględnieniem etyki ICT oraz odpowiedzialnych badań i innowacji. Jest dyrektorem ds. etyki we flagowym projekcie UE Human Brain Project, koordynatorem europejskiego projektu SHERPA oraz dyrektorem Observatory for Responsible Research and Innovation in ICT (ORBIT).

 

Read the English version of the interview HERE

Skip to content