Cyfrowe narzędzia coraz częściej towarzyszą nam w nieobojętnych moralnie sytuacjach. Czy to jednak wystarczający powód, by chcieć wyposażać maszyny w umiejętność etycznego rozumowania?
Zbuntowane przeciw człowiekowi dzieła jego własnych rąk od lat goszczą w zbiorowej wyobraźni: golem, potwór Frankensteina, HAL 9000, replikanci, terminatory… Ich pojawieniu się towarzyszy zwykle moralna przestroga: uważajcie, bo zabawa w Stwórcę może się źle skończyć. Tak dla was, jak i dla istot, które powołacie do życia.
Będąc przez dekady głównie przedmiotem fikcji literackiej bądź filmowej, podobna refleksja od pewnego czasu znajduje jednak twarde podstawy w rzeczywistości. Rozwój nauki sprawił, że człowiek coraz częściej sięga do domeny, która do tej pory pozostawała w gestii natury czy Boga. Pod koniec XX i na początku XXI stulecia tyczyło się to głównie genetyki i medycyny. Od kilku lat istotną rolę odgrywają tu jednak także nauki informatyczne, a konkretnie robotyka i uczenie maszynowe.
Postęp w badaniach nad sztuczną inteligencją i możliwość zastosowania jej w różnych obszarach życia coraz częściej skłania badaczy do zastanowienia nad tym, jak zapewnić człowiekowi bezpieczeństwo w świecie, w którym obok niego działać będą inteligentne maszyny. Część ekspertów przekonuje, że jedynym sposobem dającym nam gwarancję pokojowego współistnienia jest wyposażenie tych drugich w moralność. Ich zdaniem właśnie to powinno być zadaniem cieszącej się ostatnio coraz większym zainteresowaniem etyki sztucznej inteligencji. Czy rzeczywiście powinniśmy spodziewać się rychłego nadejścia moralnych maszyn?
W obszarze etyki technologii istnieją dwa główne podejścia do problemu zaszczepienia moralności w maszynach. Odgórne zaprogramowanie określonej teorii etycznej (podejście top-down) oraz – bliższe współczesnemu uczeniu maszynowemu – takie trenowanie maszyn, by samodzielnie nauczyły się odróżniać zachowania pożądane od niepożądanych (podejście bottom-up)?
Pierwsze z nich przypomina niegdysiejsze systemy eksperckie, czyli podejście do sztucznej inteligencji, w którym działanie maszyny było ściśle zdeterminowane wpisanymi w system regułami. Problem z nim polegał jednak na tym, że bardzo trudno było stworzyć wyczerpujący zbiór reguł, który opisywałby wszystkie warianty rzeczywistości, w jakiej miałaby funkcjonować maszyna. Z podobnymi trudnościami podejście to mierzy się również w przypadku prób ścisłego ujęcia zasad moralności. Dość szybko okazuje się bowiem, że ogólnie zdefiniowane normy czy obowiązki mogą się ze sobą kłócić w realnym świecie, a w konkretnych sytuacjach być niewystarczająco precyzyjne.
Drugie podejście, właściwe dla uczenia maszynowego, zdaje się na pozór omijać tę pułapkę. Tu maszyna sama uczy się świata, dynamicznie przyswajając sobie sygnały pochodzące z otoczenia i dążąc do maksymalizacji postawionych przed sobą celów. I w tym wypadku sytuacja nie wygląda jednak zbyt różowo. Pojawiają się m.in. wątpliwości dotyczące tego, jak dobrze zdefiniować cele maszyny, oraz w jaki sposób zintegrować je, by działała ona jako spójna a zarazem elastyczna całość.
Zdaniem niektórych ekspertów rozwiązanie tych problemów mogłyby przynieść tzw. systemy hybrydowe, łączące oba powyższe podejścia. Jest to postulat znajdujący poparcie nie tylko w obszarze prób wykształcenia moralności w maszynach, ale także w pracach nad uelastycznieniem działania SI w ogóle (jego zwolennikiem jest np. kognitywista Gary Marcus). Chodzi o to, by SI nauczyła się rozumieć sensy rzeczywistości, a także pojmować relacje przyczynowo-skutkowe. Czy jednak systemy hybrydowe wystarczą, by zaszczepić w maszynach kompetencje moralne?
Dopóki mamy nad nimi kontrolę, takie podejście powinno wystarczyć, uważają Wendell Wallach z Uniwersytetu w Yale i Shannon Vallor z Uniwersytetu w Edynburgu. Jednak dwie główne cechy charakteryzujące zaawansowane zdolności moralne, czyli umiejętność reagowania na nowe zjawiska w obszarze moralności oraz rozumienia sensu złożonej sytuacji moralnej, wciąż pozostaje zdolnością wyłącznie ludzką.
Aby maszyny mogły sobie dobrze radzić w realnym świecie, musiałyby posiąść zdolność kreatywnego myślenia w obliczu dylematów i konfliktów moralnych a także działania w kontekstach, w których występuje wielu różnych interesariuszy z często sprzecznymi celami i motywacjami. Podejście hybrydowe – nawet gdyby udało się je zrealizować w praktyce – wciąż byłoby niewystarczające, aby zapewnić maszynom te kompetencje. Cóż zatem pozostaje?
Wallach i Vallor przekonują, że w sytuacjach wymagających zaawansowanych kompetencji moralnych sprawdziłyby się tylko takie maszyny, które potrafiłyby działać zgodnie z podejściem znanym w filozofii moralnej jako etyka cnót. Chodzi o mający źródła w starożytności sposób myślenia, w którym etyka nie zasadza się ani na zasadach (teoria powinności), ani na konsekwencjach (utylitaryzm), lecz na cechach charakteru osób moralnie się wyróżniających, takich jak mądrość, uczciwość czy sprawiedliwość.
Zdaniem obojga badaczy jedną z głównych zalet etyki cnót jest to, że akceptuje ona płynność i nieprzewidywalność życia moralnego, a zarazem unika relatywizmu. Jak to możliwe? Dzieje się tak dzięki naczelnej kategorii tego modelu myślenia, czyli mądrości praktycznej (phronesis). To cecha charakteryzującą autorytet moralny, który potrafi roztropnie i z troską o wartości poruszać się w realnym świecie, w którym często napotykamy dylematy, a problemy są rzeczywiste, a nie teoretyczne. Taki wzór postępowania nie jest nieomylny, jednak stanowi ucieleśnienie powszechnie szanowanych cnót i jest punktem odniesienia dla innych. Przede wszystkim jednak dba o szczęście wspólnoty.
Czy taki ideał ma w ogóle szansę znaleźć przełożenie na sposób działania maszyn? Na obecnym etapie rozwoju technologii absolutnie nie, twierdzą Wallach i Vallor. Co więcej, uważają oni, że i w przyszłości jest mało prawdopodobne, aby dało się go zrealizować. Dlaczego?
Ponieważ maszyny nie są zdolne ani do moralnego rozumowania, ani nie posiadają percepcji, refleksji i wyobraźni moralnej. Chodzi przy tym nie tylko o kompetencje czysto kognitywne, ale także te wynikające z ucieleśnionego bycia w świecie. Maszyny wciąż działają bowiem na podstawie symbolicznego zapośredniczenia rzeczywistości, a nie bezpośredniego w niej udziału. Tylko człowiek jest w stanie wyczuć – niejako intuicyjnie, poprzez integrację różnych sygnałów z otoczenia – że moralna „atmosfera” w danej sytuacji uległa subtelnej zmianie. I nie potrzebuje do tego wprost wyrażonych komunikatów werbalnych czy cielesnych.
Jaki więc pożytek płynie z koncepcji maszyny pełnej cnót (virtuous agent)? To regulacyjny ideał, wyjaśniają badacze, który ma służyć jako punkt odniesienia w pracach nad moralnością maszyn, a także w badaniach nad ich bezpieczeństwem.
Ktoś mógłby jednak zapytać, czemu w przypadku moralności mielibyśmy iść inną drogą niż ta, którą dotychczas podążaliśmy pracując nad wynalazkami? Przecież nie zawsze wiernie naśladujemy naturę. Samochody nie mają nóg ani kopyt, a poruszają się dalej i szybciej niż najlepszej krwi konie wyścigowe, zaś samoloty nie machają skrzydłami, by pokonywać tysiące kilometrów w powietrzu. Czy etycy nie komplikują aby nadmiernie sprawy, stawiając inżynierom za wzór ideał mędrca niedościgniony nawet dla większości śmiertelników?
Ciekawej odpowiedzi na te pytania dostarcza Robert Sparrow z australijskiego Uniwersytetu Monasha. W artykule „Why machines cannot be moral” opublikowanym na łamach „AI & Society” pisze on, że sam pomysł wyposażenia maszyn w moralność zakłada błędne rozumienie tego, czym jest etyka. O co dokładnie chodzi?
Sparrow wyjaśnia, że w przeciwieństwie do pytań naukowych czy praktycznych problemów, pytania etyczne dotyczą zawsze konkretnej osoby – w tym sensie, że odpowiedź na nie wiąże się zawsze z ryzykiem poczucia winy. O ile prawidłowa odpowiedź na pytanie z zakresu nauki może być teoretycznie udzielona przez każdego, kto posiada potrzebne do tego kompetencje, o tyle odpowiedź na problem moralny zawsze zobowiązuje jakąś konkretną osobę.
Nawet gdy poszukuje ona wsparcia u innych w rozwiązaniu dylematu, i tak ostatecznie zostaje z nim sama i ponosi moralną odpowiedzialność za swoją decyzję. Tym różni się ona choćby od funkcjonującej w prawie zasady odpowiedzialności na zasadzie ryzyka, gdzie osoba podejmująca ryzykowne działania odpowiada za ewentualne szkody, nawet gdy nie jest bezpośrednio winna ich powstania (np. gdy wynikają one z błędów jej pracowników).
Podobnie jak Wallach i Vallor, Sparrow także odwołuje się do etyki cnót, argumentując, że moralne działanie jest zawsze związane z indywidualnym kontekstem, naszym doświadczeniem i zdobytą mądrością, a nie wynika po prostu z zastosowania najlepszej nawet podręcznikowej wiedzy. W tym sensie maszyny, argumentuje Sparrow, nigdy nie będą etyczne ani zdolne do etycznego działania, ponieważ ich decyzje nie będą miały tego samego sensu jak w przypadku ludzi. Brakuje im bowiem moralnej osobowości i zdolności poczucia żalu. Nie mogą więc być moralnym podmiotem odpowiedzialnym za to, co robi.
Stanowisko Sparrowa, oparte na podobnych podstawach, co argumentacja Wallacha i Vallor, pozwala zadać pytanie, jaki sens ma w ogóle mówienie o moralności maszyn. Skoro jedni i drudzy zgadzają się, że prawdopodobieństwo stworzenia sztucznych moralnych agentów (artificial moral agents) jest bardzo znikome, to czy nie rozsądniej byłoby mówić w tym kontekście po prostu o bezpieczeństwie maszyn?
Takiego zdania jest dwoje filozofów z Uniwersytetu Technicznego w Delft – dr Aimee van Wynsberghe i Scott Robbins. Przekonują oni, że dyskusja o potrzebie wyposażenia maszyn w moralność powinna przede wszystkim wychodzić od problemów, które takie podejście miałoby rozwiązywać. Jakie to problemy?
Zwolennicy budowania sztucznych moralnych agentów wskazują m.in. na to, że maszyny będą coraz częściej występować w środowiskach nacechowanych moralnie, mogąc tym samym skrzywdzić ludzi, a ponadto będą też coraz bardziej złożone. Dlatego potrzeba, by posiadały one moralny kompas.
Zdaniem badaczy z Delft argumenty te są tylko na pozór przekonujące. Nikt nie zaprzeczy, że z sytuacjami nacechowanymi moralnie mamy bowiem do czynienia na przykład w wypadku terapii osób niepełnosprawnych. Czy jednak wymagamy, aby psy wykorzystywane w takich sytuacjach były wyposażone w zmysł moralny? Byłby to nonsens. A jednak korzystamy z pomocy czworonogów. Dlaczego? Ponieważ zapewniamy pacjentom bezpieczeństwo, np. dzięki odpowiedniej tresurze psów czy obecności opiekuna.
Również wiele urządzeń, z których na co dzień korzystamy, bywa używanych w otoczeniu, które nie jest moralnie obojętne. I nie musi być to wcale aparatura ratująca życie – wystarczy pomyśleć o zwykłej kosiarce do trawy. Czy jednak z faktu, że jakieś urządzenie może grozić ludzkiemu życiu lub zdrowiu, wynika, że musi ono umieć moralnie rozumować? Do ich właściwego działania wystarczy przecież odpowiednie zabezpieczenie oraz kontrola ze strony człowieka.
A co ze złożonością robotów i sztucznej inteligencji? W końcu stają się one coraz bardziej zaawansowane, a ich mechanizmy często nie są transparentne. Jednak i w tym wypadku pomysł wyposażania ich w moralność jest zdaniem van Wynsberghe i Robbinsa kompletnie chybiony. Znacznie prostszym rozwiązaniem jest po prostu precyzyjnie wytyczyć obszar, w jakim miałyby działać podobne urządzenia. A tam, gdzie byłoby to niemożliwe, po prostu ich nie stosować. W końcu sztuczna inteligencja i roboty to nie fatum, z którym musimy się pogodzić, ale stworzone przez nas samych urządzenia. Mamy więc wpływ na to, jak i gdzie ich używać.
W swojej polemice ze zwolennikami tworzenia moralnych maszyn badacze z Delft zwracają uwagę na jeszcze jedną kwestię. Chodzi o odpowiedzialność za język, jakim posługujemy się, by mówić o dzisiejszych wyzwaniach etycznych związanych z nowymi technologiami. Mieszanie sfer, które przynależą wyłącznie do ludzkiego świata (jak właśnie moralność), ze sferą niemających świadomości i zmysłu moralnego urządzeń może wywołać więcej szkód niż pożytku. Prowadzi bowiem do rozchwiania znaczeń i nie pozwala uchwycić tego, co naprawdę jest problemem we współczesnym świecie.
Zamiast więc marzyć o moralnych maszynach, które zapewne nigdy się nie pojawią, zastanówmy się, jak lepiej zadbać o to, byśmy sami potrafili etycznie je konstruować – z troską o innych ludzi i nasz wspólny świat.
Źródła:
Wendell Wallach, Shannon Vallor, „Moral Machines: From Value Alignment to Embodied Virtue” [w:] „Ethics of Artificial Intelligence”, red. Matthew Liao, Oxford University Press 2020.
Robert Sparrow, „Why machines cannot be moral”, „AI & Society” (2021).
Aimee van Wynsberghe, Scott Robbins, „Critiquing the Reasons for Making Artificial Moral Agents”, „Science and Engineering Ethics„ 25, 2019