Jeśli chcemy włączyć etykę do produktów i systemów AI, będzie to wymagało specjalistycznej wiedzy. Samo odhaczanie listy kontrolnej nie wystarczy. A zatem do zespołu programistów trzeba dodać etyka, najlepiej takiego, który ma umiejętność przekonywania. Podejście Ethics by Design powinno też stać się częścią kształcenia w dziedzinie inżynierii informatycznej – mówi prof. Philip Brey w rozmowie z Maciejem Chojnowskim.
Maciej Chojnowski: Mniej więcej rok temu podczas pierwszej konferencji CET zastanawialiśmy się, czy istniejące narzędzia z obszaru etyki sztucznej inteligencji staną się podstawą podobnych rozwiązań dla innych technologii. Dziś widać, że tak się już stało. W projekcie SIENNA nie tylko opracowaliście konkretne metodyki dla poszczególnych dziedzin jak AI, ale stworzyliście również ich wersję ogólną, która może być zastosowana do dowolnej technologii. W jakich obszarach spodziewasz się jej przyszłego wykorzystania?
Philip Brey*: Obecnie mamy do czynienia z dużym zainteresowaniem etyką AI. Sztuczna inteligencja jest postrzegana jako potężna technologia, która zmienia wszystkie sektory w społeczeństwie, a zarazem stwarza istotne problemy etyczne. I choć jest to faktycznie prawda w odniesieniu do AI, to podobna sytuacja występuje również w innych dziedzinach, jak np. genomika piątej generacji, biologia syntetyczna, neurotechnologia, nanotechnologia czy internet rzeczy.
Tak więc będziemy musieli stale mierzyć się z kwestiami etycznymi oraz wyzwaniami dotyczącymi praw człowieka wynikającymi z rozwoju nowych technologii. Byłoby zatem dobrze, gdyby udało się nam uniknąć powielania wysiłków, tak byśmy na podstawie doświadczeń z wcześniejszymi technologiami uczyli się je oceniać pod kątem etyki, rozpoznawać problemy etyczne oraz sposoby przeciwdziałania im już na wczesnym etapie, a zarazem mieli pewność, że wszystko to odbywa się w optymalny sposób.
W projekcie SIENNA stworzyliśmy wytyczne oraz narzędzia dotyczące etyki sztucznej inteligencji, genomiki człowieka oraz technologii udoskonalania człowieka (human enhancement technolgies), ale wypracowaliśmy również ogólne podejście, które może być zastosowane do innych technologii. Na przykład w projekcie TechEthos, w którym także biorę udział, przyglądamy się neurotechnologii, rzeczywistości rozszerzonej i geoinżynierii. Wszystkie one są technologiami o dużym stopniu oddziaływania, które wymagają oceny etycznej, więc zdobyte doświadczenie oraz sprawdzone metody są tu pomocne.
Jednym z rezultatów projektu SIENNA jest ETCOM – normatywny model służący równoległemu rozwojowi nowych technologii i etyki. Czy to próba uporządkowania uprzednio istniejących procedur w celu ich łatwiejszego zastosowania, czy raczej wprowadzenie nowych rozwiązań?
W ostatniej dekadzie pod hasłem odpowiedzialnych badań i innowacji próbowano tworzyć całościowe modele służące etycznemu rozwojowi nowych technologii. Ale były to znacznie szersze modele ukierunkowane na zarządzanie i rozwój technologii w odpowiedzialny i inkluzywny sposób, w których etyka była tylko jednym z wymiarów. Wcześniej również prowadzono sporo analiz etycznych nowych technologii, ale nie zaowocowały one całościowymi ujęciami dającymi wytyczne w zakresie etyki oraz wskazującymi sposoby przeciwdziałania szkodom.
Zależało nam więc na tym, aby skupić się bardziej na samej etyce i wypracować coś, co dotychczas nie powstało. I zdecydowaliśmy się stworzyć normatywny model pokazujący, jak na różnych etapach ewolucji nowych technologii można przeprowadzać interwencje etyczne, tak by problemy były rozpoznawane i skutecznie rozwiązywane.
Zważywszy na to, że ETCOM jest nowym modelem normatywnym, nie należy się spodziewać, że został już gdzieś w pełni wdrożony. Zapewne jednak korzystaliście z jakichś gotowych elementów podczas jego konceptualizacji. Czy można zatem powiedzieć, że AI da się już dziś tworzyć w etyczny sposób, czy jednak stanie się tak dopiero wtedy, gdy zastosowane zostanie to podejście, które wy opracowaliście?
Sztuczna inteligencja to z pewnością technologia, w której przypadku wiele z rekomendacji zawartych w ETCOM było już wcześniej stosowanych. Ale też o żadnej nowej technologii nie sposób powiedzieć, że najlepiej radzi sobie z wyzwaniami natury etycznej. O etyce często myśli się dopiero na samym końcu lub włącza do projektowania, zastosowania czy regulacji nowych technologii w sposób nie dość całościowy i systemowy. Jednak w przypadku AI podjęto przynajmniej ważne kroki w różnych obszarach, żeby na wczesnym etapie odnieść się do tych kwestii.
Jednak model ETCOM idzie zdecydowanie dalej niż to, co w tym kontekście dotychczas wydarzyło się w dziedzinie AI. Wskazuje on pięć etapów w rozwoju nowych technologii, na których zalecane jest przeprowadzenie interwencji etycznych. Całość rozpoczyna wstępna analiza etyczna i rozpoznanie potencjalnych problemów natury etycznej oraz wdrożenie konkretnych zaleceń etyki badawczej właściwych dla danej technologii. W kolejnych etapach opracowywane są wskazania etyczne dla różnych osób uczestniczących w całym procesie. Wtedy też stosowane jest podejście Ethics by Design i wypracowywane są standardy etyki oraz inspirowane etyką pomysły regulacyjne. I wreszcie na końcu mamy etapy, gdy czynniki etyczne stają się częścią standardów ISO lub CEN. Wtedy też pojawia się edukacja i szkolenia.
A zatem chodzi o szeroki zakres działań, które powinno się podjąć, by skutecznie zmierzyć się z etycznymi wyzwaniami związanymi z nowymi technologiami. Ważne też, by wiedzieć, co powinno się dziać na którym etapie, kto powinien być w to zaangażowany, jaką wiedzą dysponować i jakich używać narzędzi. Dlatego właśnie stworzyliśmy te obszerne rekomendacje do wykorzystania przy tworzeniu nowych technologii.
Jednym z najważniejszych rezultatów projektu SIENNA jest podejście Ethics by Design umożliwiające praktyczną operacjonalizację ogólnych zasad etycznych na etapie projektowania AI. Ma to związek z poprzednim projektem, w którym brałeś udział, czyli SHERPA. Jak ewoluowało to podejście?
Oba projekty przebiegały mniej więcej równolegle, ale w SHERPA mieliśmy okazję wcześniej pracować nad podejściem Ethics by Design, podczas gdy w SIENNA zostało ono przewidziane na nieco późniejszym etapie. Dlatego właśnie wstępne prace przeprowadziliśmy na etapie SHERPA, a bardziej zaawansowana wersja powstała w SIENNA. Wtedy też pracowaliśmy wspólnie z Komisją Europejską nad włączeniem podejścia Ethics by Design do unijnego projektu finansowania badań Horyzont Europa.
Komisja Europejska oficjalnie wspiera podejście Ethics by Design.
Jest ono rekomendowane przez Komisję. Obecnie stanowi część procedury oceny etycznej (ethics review) projektów z obszaru AI, big data i robotyki. Mamy nadzieję, że w przyszłości uda się to rozszerzyć i Ethics by Design będzie rekomendowanym podejściem także w przypadku projektów dotyczących innych technologii.
Wspomniałeś wcześniej projekt TechEthos, w którym również bierzesz udział. Czy zamierzacie w nim dalej rozwijać podejście Ethics by Design, czy może wersja opracowana w ramach SIENNA jest ostateczna?
W TechEthos nie przewidzieliśmy zbyt wiele miejsca dla samego Ethics by Design. Projekt wszedł w życie, zanim przedstawiliśmy naszą propozycję podejścia EbD. Ale w SIENNA podjęliśmy pewne działania, żeby je zuniwersalizować. Przygotowaliśmy raport, w którym zawarliśmy propozycje zastosowania Ethics by Design dla innych technologii. Niemniej byłoby dobrze, żeby kiedyś ktoś bliżej zbadał te inne obszary i nieco to rozwinął. Jestem pewien, że tak się stanie w kolejnych projektach.
Czy zamierzacie przetestować Ethics by Design w praktyce?
Testem praktycznym będą różne projekty realizowane w programie Horyzont Europa, w których to podejście zostanie wdrożone. Oczywiście, w ramach SIENNA przeprowadziliśmy tyle prób, ile tylko się dało, ale przy ograniczonych środkach nie mogliśmy tego zrobić na bardzo szeroką skalę. Jednak EbD jest oparte na sprawdzonych zasadach z wcześniejszych metodyk projektowania zgodnie z wartościami, jak Design for Values czy Value Sensitive Design. Jesteśmy więc spokojni o jego praktyczne zastosowanie.
Niektóre osoby ze środowiska AI oczekują, że zadania związane z etyką będą łatwe do przeprowadzenia. Chciałyby czegoś na kształt listy kontrolnej, a może nawet procedury (częściowo) zautomatyzowanej. Z drugiej strony filozofowie, jak np. Anaïs Rességuier, z którą współpracowałeś przy projekcie SIENNA, podkreślają, że zasadnicze znaczenie dla etycznego rozumowania ma aktywność podmiotu moralnego. Co sądzisz o pomyśle automatyzacji etyki w przypadku projektowania i stosowania AI?
Procesy projektowania (sztucznej inteligencji – red.) są złożone i wymagają dużo doświadczenia, aby je dobrze przeprowadzić. Każdy mający umiejętność kodowania może stworzyć oprogramowanie, jednak zaawansowany software, szczególnie w dziedzinie AI, to bardzo skomplikowana sprawa. Dlatego włączenie do niego namysłu etycznego z pewnością nie będzie łatwe. I trzeba to brać pod uwagę.
Weźmy inżynierię bezpieczeństwa, która polega w zasadzie na dodawaniu jednego elementu do budowanego produktu. Istnieją całe metodyki i szkolenia ukierunkowane na zapewnienie bezpieczeństwa w tym obszarze. Rzecz wygląda podobnie w przypadku ochrony prywatności w systemach IT. Nie powinno nas więc dziwić, że jeśli chcemy włączyć etykę do produktów i systemów informatycznych, to będzie to wymagało specjalistycznej wiedzy. Samo odhaczanie listy kontrolnej nie wystarczy.
Z pewnością niektórzy inżynierowie chętnie poprzestaliby właśnie na liście kontrolnej, ale naszym zdaniem jeśli chcemy rzetelnie realizować etykę, powinna ona stać się częścią procesu rozwoju AI, co wymaga właśnie specjalistycznej wiedzy. A zatem do zespołu programistów trzeba dodać etyka, najlepiej takiego, który ma umiejętność przekonywania. Ale uważamy też, że Ethics by Design powinno stać się częścią kształcenia w dziedzinie inżynierii informatycznej.
Jeśli zagłębimy się w teorię Design for Values, która jest w pewnym stopniu powiązana z Ethics by Design, szybko zdamy sobie sprawę, że w podejściu tym potrzebna jest umiejętność przekładania wartości na wymagania projektowe. Powiedziałeś, że etycy powinni dołączyć do zespołów AI. Czy jednak uważasz, że Ethics by Design w postaci, w jakiej zostało opracowane w SIENNA, jest gotowe do użytku, czy może będzie wymagało dodatkowej pracy właśnie nad przekładaniem wartości?
Włożyliśmy dużo wysiłku, aby jak najpełniej przełożyć wartości na procedury operacyjne. Wskazujemy także, jakie konkretne działania są konieczne na różnych etapach procesu projektowania systemów sztucznej inteligencji. Jednak konieczność interpretacji nie zniknie, na przykład w sytuacji, gdy zalecamy badanie zbiorów danych pod kątem tendencyjności (bias). Nie zawsze będzie jasne, co to oznacza w praktyce. Ale żeby to wyczerpująco przedstawić, musielibyśmy napisać pięćsetstronicowy podręcznik.
Dlatego to także do naukowców i inżynierów będzie należała odpowiednia interpretacja procedur zaproponowanych w Ethics by Design i decyzja, jak wyeliminować tendencyjność danych, jak radzić sobie ze świadomą zgodą (informed consent) na praktycznym poziomie, gdy chodzi o ochronę prywatności, bądź też jakie rodzaje systemów AI wymagają wyższego poziomu przejrzystości i wyjaśnialności. Tego wszystkiego nie da się zawrzeć w metodyce Ethics by Design. Potrzeba tu doświadczenia w projektowaniu technologii, które musi być następnie połączone z podejściem EbD.
W materiałach opracowanych w projektach SIENNA i SHERPA stworzyliście też metodykę etycznego wdrożenia i stosowania AI.
Tak, to odmienne podejście od Ethics by Design, bo dotyczy innych podmiotów. EbD powstało z myślą o osobach projektujących technologie, podczas gdy etyka wdrożenia i zastosowania dotyczy użytkowników tej technologii w organizacjach.
Zależało nam na zbadaniu, jakie parametry są tu istotne, aby można było określić, czy efekty wdrożenia i zastosowania AI są etyczne bądź nie oraz co mogą zrobić organizacje, by zapewnić etyczne wyniki. Obejmuje to wiele rzeczy, jak posiadanie wytycznych dotyczących etyki, staranny dobór właściwej technologii (czy to przy zamówieniach zewnętrznych, czy przy rozwijaniu jej na miejscu), a także szkolenie pracowników i posiadanie odpowiednich polityk.
Istotne jest też, by posiadać perspektywę obejmującą różne osoby zaangażowane we wdrożenie i używanie AI oraz stosować narzędzia i protokoły potrzebne do osiągnięcia etycznych rezultatów. Bo organizacjom nie wystarczą same wytyczne dotyczące etyki. Chodzi o wiele więcej: oprócz polityk i szkoleń mogą także potrzebować dyrektora ds. etyki (ethics officer), certyfikacji, sprawozdawczości (accounting) czy monitorowania swojego podejścia. Jeśli więc naprawdę chce się w organizacji potraktować poważnie etykę przy wdrażaniu i użytkowaniu technologii, trzeba uwzględnić te modele i zrobić to całościowo.
Czy do wypracowanej w SIENNA metodyki powinny zostać dodane jakieś zewnętrzne narzędzia?
Najważniejsze są te narzędzia, które wskazaliśmy w odniesieniu do projektowania oraz wdrażania i stosowania technologii.
Ale na poziomie rządowym potrzebne są odpowiednie regulacje i polityki. To właśnie robi obecnie Unia Europejska. Wypracowała obszerne regulacje dla AI, które uwzględniają pewne kluczowe kwestie etyczne. Z drugiej strony organizacje standaryzacyjne jak CEN, ISO czy IEEE pracują nad normami dla AI obejmującymi etykę. Uczelnie prowadzą badania i tworzą programy nauczania dotyczące etyki AI, co jest również bardzo ważne. Uwrażliwienie mediów na kwestie etyki AI to kolejna sprawa.
Wszystko to różne istotne składowe. Jedne są dość oczywiste i niezbyt nowe. Ale także w odniesieniu do zagadnień już znanych, jak wytyczne z zakresu etyki, opracowaliśmy wskazania (roadmap), jak robić to dobrze, ponieważ możliwe są tu odmienne podejścia.
Rezultatem jednego z twoich wcześniejszych projektów – SATORI – była metodyka etycznej oceny oddziaływania (ethical impact assessment methodology). Czy ona również jest częścią SIENNA?
Tak, ponieważ by skutecznie radzić sobie z problemami etycznymi w przypadku nowych technologii, trzeba móc je zidentyfikować i poddać analizie. A to nie zawsze jest łatwe, bo niektóre z nich to dopiero kwestia przyszłości. Zależą od określonej ścieżki rozwoju czy konkretnych zastosowań, a także tego, w jaki sposób będą one oddziaływać na społeczeństwo. Dlatego potrzebna jest metodyka etycznej oceny, która nie tylko dostrzega istniejący wymiar technologii, ale uwzględnia też jej przyszłe odsłony i oddziaływanie.
Po raz pierwszy stworzyliśmy ją w projekcie SATORI. W SIENNA opracowaliśmy jej bardziej rozwiniętą wersję. Nazwaliśmy ją po prostu SIENNA approach to ethical analysis (podejście do analizy etycznej wg projektu SIENNA).
Gdy mamy do czynienia z nową technologią lub zaczynamy pracować nad jej nowym zastosowaniem, dobrze jest odpowiednio wcześniej przeprowadzać etyczną ocenę oddziaływania, ponieważ chcemy jak najwcześniej zidentyfikować potencjalne problemy etyczne. I nie jest to tylko nasza rekomendacja. Występuje także w różnych publikacjach Komisji Europejskiej.
W jednym z artykułów napisanych wspólnie z Berndem Stahlem oraz innymi badaczami z projektu SHERPA zawarliście taksonomię problemów etycznych związanych z AI. Wskazujecie ich trzy różne rodzaje: problemy związane z uczeniem maszynowym, zagadnienia dotyczące życia w cyfrowym świecie oraz kwestie metafizyczne. Do których z nich odnoszą się rozwiązania opracowane w ramach SIENNA?
Orędujemy za szerokim podejściem do problemów etyki. Dlatego w przypadku nowych technologii chcemy przyglądać się wszystkim możliwym zagadnieniom, które tu występują. Jeśli na przykład chodzi o kwestie środowiskowe, to one również powinny zostać uwzględnione. I choć uczenie maszynowe jest dziś w centrum AI, to z pewnością nie jest to jedyny obszar rozwoju w tej dziedzinie.
Stąd jeśli chcemy przeprowadzić kompleksową analizę technologii, musimy patrzeć na różne rodzaje produktów i zastosowań, a następnie rozpoznać problemy, które uważamy za najistotniejsze. Mogą one dotyczyć praw człowieka, sprawiedliwości, indywidualnego bądź społecznego dobrostanu czy zrównoważonego rozwoju. Każde zagadnienie związane z daną technologią powinno być tu brane pod uwagę.
*Prof. Philip Brey – filozof specjalizujący się w dziedzinie etyki technologii. Pracuje na Wydziale Filozofii Uniwersytetu Twente w Holandii. W swoich badaniach zajmuje się społecznymi, politycznymi i etycznymi kwestiami związanymi z rozwojem, zastosowaniem i regulacją technologii. Koncentruje się na nowych technologiach, ze szczególnym uwzględnieniem sztucznej inteligencji. Był prezesem International Society for Ethics and Information Technology (INSEIT) oraz Society for Philosophy and Technology (SPT). Obecnie koordynuje dziesięcioletni program badawczy Ethics of Socially Disruptive Technologies, w którym bierze udział siedem holenderskich uniwersytetów i ponad sześćdziesięciu naukowców.
Read the English version of the interview HERE