Close

AI envelopment, czyli po co nam przestrzeń robocza dla sztucznej inteligencji

30 czerwca, 2021
Maciej Chojnowski

Projektowanie zgodnie z metodyką envelopment umożliwia kontrolę nad AI bez konieczności zapewniania jej transparentności. Jest też praktycznym narzędziem służącym do oceny ryzyka systemów wykorzystujących sztuczną inteligencję. Zarazem stanowi przestrogę, byśmy nie oddawali zbyt wiele naszego świata technologii.

Luciano Floridi przyrównał kiedyś relację człowieka i sztucznej inteligencji do związku dwojga ludzi, w którym jeden z partnerów jest inteligentny, acz leniwy, zaś drugi pracowity, ale uparty i niezbyt rozgarnięty. To porównanie trafnie opisuje sytuację, w jakiej znajdują się dziś ludzie (ów bystry, choć gnuśny partner) i maszyny (partner pracowity, lecz apodyktyczny i mało rozgarnięty), ponieważ współczesne narzędzia wykorzystujące AI nie są wcale – wbrew swej nazwie – szczególnie inteligentne. Potrafią bowiem jedynie reprodukować inteligentne zachowania, lecz nie są zdolne do ich samodzielnego wytwarzania.

Granice inteligencji

W czym tkwi różnica? W zdolności rozumienia, twierdzi Floridi. Prawdziwa inteligencja rozpoznaje semantykę, czyli znaczenia. Tymczasem współczesna AI bazuje przede wszystkim na umiejętnościach syntaktycznych, czyli kontekstowych, możliwych do rozwinięcia dzięki dużym zbiorom danych. Jej domeną jest statystyka i prawdopodobieństwo.

Taki stan rzeczy pociąga za sobą konkretne konsekwencje. Maszyny, aby móc sprawnie wykonywać postawione przed sobą zadania, muszą funkcjonować w tzw. przestrzeni roboczej (envelopment). Floridi sięga tu po pojęcie znane z robotyki, określające trójwymiarowy obszar, w jakim pracuje ramię robota. Choć w oryginalnym kontekście odnosi się ono do laboratorium czy hali fabrycznej, to zdaniem włoskiego filozofa odpowiada ono także charakterowi naszych codziennych interakcji z wieloma innymi urządzeniami. Przykład?

Chcąc zautomatyzować zmywanie naczyń, nie budujemy robota umiejącego zbierać ze stołu talerze i myć je w zlewie, ale umieszczamy w kuchni zmywarkę, której lokalizacja i zasady działania są ściśle określone. To właśnie envelopment – precyzyjne wskazanie miejsca oraz kontekstu i zakresu działania danego urządzenia. Jest ono konieczne, ponieważ stworzenie robota, który potrafiłby w różnych sytuacjach odróżniać naczynia od innych przedmiotów, bezpiecznie je przenosić i zmywać, pozostaje dziś wciąż wizją z obszaru science fiction.

Zmywarka nie kojarzy nam się jednak raczej z najbardziej zaawansowanymi możliwościami współczesnej techniki. Szukając innych przykładów, sięgnijmy do artykułu dr. Scotta Robbinsa z Uniwersytetu w Bonn, który rozwinął oparte na pojęciu envelopment krytyczne podejście do oceny AI.

Drogi dla robotów

Robbins często odwołuje się do pojazdów autonomicznych. Przekonuje, że próby wprowadzania ich do użytku wymuszą stworzenie nowej infrastruktury – odrębnej od tej, która istnieje obecnie dla tradycyjnego ruchu drogowego (czyli środowiska o dużej złożoności i z wieloma możliwymi scenariuszami sytuacyjnymi trudnymi do przewidzenia). Dlaczego?

Ponieważ funkcjonowanie pojazdów autonomicznych poza ściśle wyodrębnioną przestrzenią roboczą już niejednokrotnie okazało się niebezpieczne dla zdrowia i życia ludzi (wypadki podczas jazd testowych). Aby w przyszłości uniknąć podobnych sytuacji, należałoby stworzyć rozbudowaną infrastrukturę wyposażoną w czujniki, która gwarantowałaby, że samochód zachowa się w określony z góry sposób. Na przykład zatrzyma się w odpowiednim miejscu, nawet gdyby znak drogowy był niewidoczny (zamazany lub przysłonięty śniegiem). Zagwarantowanie bezpieczeństwa z wykorzystaniem zasad envelopmentu wymagałoby również wykluczenia z tej przestrzeni pieszych czy rowerzystów, a także pojazdów innych niż autonomiczne.

Akceptacja przede wszystkim

Co warte podkreślenia, rozwijając swoją koncepcję przestrzeni roboczej dla AI Robbins kładzie nacisk na nieco inną kwestię niż Floridi. Ten ostatni zwracał bowiem uwagę na skuteczność maszyn, tymczasem Robbins twierdzi, że chodzi przede wszystkim o ich akceptowalność. To istotna różnica, ponieważ to drugie podejście lepiej eksponuje kwestię etyki oraz społecznego oddziaływania technologii.

Problem akceptowalności dobrze ilustrują tzw. czarne skrzynki, czyli takie systemy uczenia maszynowego, w których sposoby dojścia do określonych wyników nie są transparentne. Obecnie w podobnych przypadkach coraz częściej mówi się o potrzebie tworzenia wyjaśnialnej sztucznej inteligencji (explainable AI, XAI) – chodzi o mechanizmy umożliwiające zrozumienie, na podstawie jakich kryteriów dany system podejmuje konkretną decyzje.

Tymczasem Robbins argumentuje, że czarne skrzynki, których skuteczności rzetelnie by dowiedziono, mogą w wielu wypadkach pozostać nietransparentne bez szkody dla kogokolwiek. Takie rozwiązanie jest jednak możliwe do przyjęcia wyłącznie wtedy, gdy precyzyjnie określimy ramy działania danego systemu, czyli właśnie jego przestrzeń roboczą (envelopment).

Dobre scenariusze

Na czym miałoby to polegać w praktyce? Przede wszystkim na wskazaniu, jakie dane zostały użyte do wytrenowania modelu. Chodzi o to, by mieć pewność, że wszystkie ważne elementy kontekstu, w jakim ma on funkcjonować, zostały właściwie uwzględnione (np. system do wykrywania nowotworów skóry został wytrenowany na osobach o różnej karnacji), tak by uniknąć skrzywienia algorytmicznego.

Po drugie, na określeniu granic działania danego systemu (czyli możliwych scenariuszy) oraz jego funkcji. Robbins przywołuje tu przykład jednego z dostępnych na rynku wirtualnych asystentów, który omyłkowo przekazał osobom postronnym nagranie przypadkowej rozmowy domowników. Jego zdaniem ten incydent dowodzi, że ani scenariusze działania urządzenia, ani jego funkcje nie zostały wystarczająco precyzyjnie określone. W efekcie właściciele nie potrafili zrozumieć (a producent wytłumaczyć), w jaki dokładnie sposób doszło do sytuacji jawnie sprzecznej z intencjami użytkowników.

Po trzecie, envelopment polega na znajomości danych wejściowych (input) oraz wyjściowych (output), co łączy się bezpośrednio z określeniem granic i funkcji systemu. W przypadku danych wejściowych trzeba wiedzieć nie tylko, jakiego są one rodzaju (np. dźwięki, obrazy, temperatura), ale także w jaki sposób są ze sobą łączone, by stworzyć komplet informacji pobieranych przez system. Określenie granic jego działania pozwala zdefiniować, które dane wejściowe są niezbędne, by mógł on poprawnie funkcjonować.

Podobnie jest z funkcjami systemu, którego działanie łączy się z określonymi danymi wyjściowymi (rezultatami). Na przykład funkcją pojazdu autonomicznego jest przejechanie z punktu A do punktu B, a możliwe rezultaty wynikające z realizacji tej funkcji to np. rozpędzenie się do określonej prędkości, wyprzedzanie czy hamowanie.

Wyeliminować ryzyko

Jasna znajomość specyfiki wszystkich tych elementów jest niezbędna, by móc ocenić, czy dany system jest akceptowalny, czy też nie. Na przykład w sytuacji, gdy granice działania systemu nie są wystarczająco precyzyjnie zdefiniowane (a zatem dopuszcza się wystąpienie nowych scenariuszy), jego możliwe rezultaty powinny być na tyle ściśle określone, by kategorycznie wykluczyć ewentualność zaistnienia szkody. O co dokładnie chodzi?

Aby to wyjaśnić, Robbins odwołuje się do sztucznej inteligencji grającej w go czy w szachy, gdzie rezultatem działania systemu może być jedynie dozwolony regułami ruch na planszy. W takiej sytuacji nawet wprowadzenie do systemu kompletnie bezsensownych danych wejściowych nie poskutkuje niczym groźnym – oczywiście poza ryzykiem przegranej.

Zupełnie inaczej wygląda to jednak w przypadku pojazdów autonomicznych, gdyby miały one zostać dopuszczone do ruchu bez wyodrębnienia specjalnej przestrzeni roboczej. W tej sytuacji niespotykany wcześniej scenariusz (lub nietypowe dane wejściowe) może znaleźć przełożenie na rezultaty, które nie są neutralne pod względem bezpieczeństwa (np. nagłe hamowanie lub inny niepożądany w danej sytuacji manewr).

Zamiast wyjaśnień

W ujęciu Robbinsa envelopment to alternatywa dla prawnego czy etycznego wymogu stosowania wyjaśnialnej sztucznej inteligencji, który coraz częściej włączany jest do powstających regulacji czy wytycznych dotyczących AI. Badacz twierdzi, że sztuczna inteligencja funkcjonująca w dobrze zdefiniowanej przestrzeni roboczej nie potrzebowałaby wyjaśnialności, ponieważ jej zakres i mechanizmy działania gwarantowałyby wiarygodność, nawet gdyby szczegóły jej decyzji nie były w pełni transparentne.

Z drugiej strony jeśli stworzenie przestrzeni roboczej dla danego systemu AI miałoby być zbyt skomplikowane lub zbyt kosztowne, to wówczas jego wdrożenie powinno zostać uznane za etycznie nie do zaakceptowania.

Robbins przekonuje, że zamiast zastanawiać się, w jaki sposób można zrozumieć działanie nietransparentnych algorytmów, należy najpierw postawić pytanie o to, jakie decyzje bylibyśmy w ogóle skłonni zaakceptować w ich wykonaniu. Do wyodrębnienia i zdefiniowania tych decyzji ma służyć właśnie metoda envelopmentu.

Envelopment po duńsku

Czy jednak zaproponowane przez Robbinsa podejście jest skuteczne w praktyce? Sprawdziła to grupa skandynawskich badaczy, którzy przeanalizowali sposób rozwijania i wdrażania narzędzi AI w duńskiej organizacji rządowej Danish Business Authority (DBA).

W przypadku DBA wymóg efektywności rozwiązań opartych na sztucznej inteligencji idzie w parze z wysokimi standardami etycznymi, które muszą spełniać rozwijane w tej instytucji systemy. Jednak złożony kontekst organizacyjny, liczne procedury i wielość interesariuszy sprawiają, że podejście oparte na wyjaśnialnej AI okazało się tu niejednokrotnie mało skuteczne. W jaki zatem sposób w DBA udało się wprowadzić rozwiązania oparte na uczeniu maszynowym, a zarazem zapewnić ich transparentność?

Naukowcy badający wdrożenia AI w tej instytucji twierdzą, że przyjęte w niej sposoby działania odpowiadają właśnie opisanej przez Robbinsa metodyce envelopmentu. Podejście to niejako wymusiło na DBA wybór różnych rozwiązań spośród szerokiego spektrum dostępnych dziś narzędzi AI, pozwalając zarazem na większą elastyczność co do zapewnienia wyjaśnialności poszczególnych modułów. Było to możliwe dzięki takiemu zaprojektowaniu systemu, w którym brak transparentności AI można łatwo zniwelować przez interwencję człowieka (np. w przypadku nierozpoznania podpisu na dokumencie nie ma potrzeby wyjaśniać działania AI – wystarczy weryfikacja ze strony pracownika).

Oparta na koncepcji envelopment rama metodyczna wymaga z pewnością dalszych badań empirycznych w różnych kontekstach organizacyjnych. Wydaje się jednak praktycznym narzędziem służącym ocenie ryzyka systemów AI i punktem wyjścia do bardziej zaawansowanego projektowania zgodnie z wartościami (design for values). Zarazem stanowi też przestrogę przed zbyt ochoczym oddawaniem naszego wspólnego świata technologii. Jak bowiem zauważa Floridi w swoim porównaniu ludzi i maszyn, te ostatnie – choć bardzo pracowite – są też mało elastyczne i łatwo narzucają swoje zasady leniwemu człowiekowi. Warto więc pamiętać, byśmy nie odstępowali im zbyt dużo przestrzeni.

Źródła:

Luciano Floridi, „Enveloping the world: the constraining success of smart technologies” [w:] „CEPE 2011: Crossing Boundaries. Ethics in Interdisciplinary and Intercultural Relations”.

 

Scott Robbins, „AI and the path to envelopment: knowledge as a first step towards the responsible regulation and use of AI-powered machines”, AI & SOCIETY 35 (2020).

 

Aleksandre Asatiani, Pekka Malo, Per Rådberg Nagbøl, Esko Penttinen, Tapani Rinta-Kahila, Antti Salovaara, „Sociotechnical Envelopment of Artificial Intelligence: An Approach to Organizational Deployment of Inscrutable Artificial Intelligence Systems”, Journal of the Association for Information Systems 22(2):325-352.

Skip to content