W obszarze nowych technologii etyka nigdy nie zastąpi regulacji. Jednak prawo nie czyni jej też zbędną. Pozostaje ona kluczowym komponentem systemu normatywnego dotyczącego sfery cyfrowej.
O tym, że prawo nie nadąża za rozwojem nowych technologii, nie trzeba dziś chyba nikogo przekonywać. Rozwiązania korzystające ze sztucznej inteligencji towarzyszą nam już od wielu lat, a wciąż brak odpowiednich przepisów regulujących użycie tej technologii. Co więcej, wiele osób z branży technologicznej uważa, że przyszłe prawo i tak szybko się zdezaktualizuje i zamiast chronić obywateli będzie tylko blokować rozwój innowacji.
W tym kontekście nierzadko słychać głosy, że najlepszym rozwiązaniem dla branży technologicznej byłaby samoregulacja. Na czym miałaby polegać? Na wypracowaniu kodeksów etycznych, które – w przeciwieństwie do prawa – byłyby na tyle elastyczne, że pozwalałyby firmom uwzględniać zmiany w krajobrazie technologicznym i odpowiednio modyfikować zasady postępowania.
Takie postawienie sprawy budzi jednak zastrzeżenia wielu ekspertów. Ich zdaniem w tym ujęciu etyka staje się czymś na kształt listka figowego, który pozwala udawać, że wszystko jest w porządku, podczas gdy gra dalej toczy się wedle dawno ustalonych reguł. Skąd takie podejrzenia?
Choćby stąd, że w przeciwieństwie do powszechnie obowiązującego prawa kodeks etyczny firmy mogłyby ustalać indywidualnie i dość wybiórczo podchodzić do obowiązujących je zasad. Nic więc dziwnego, że dla niektórych komentatorów etyka technologii stała się synonimem wytrychu, którym coraz częściej szermują podmioty niechętne legislacyjnym ograniczeniom swojej działalności. Czyżby więc etyka technologii miała stać się zbędna z chwilą, gdy wreszcie pojawi się nowe prawo?
Absolutnie nie. Świadczą o tym chociażby unijne Wytyczne w zakresie etyki dotyczącej godnej zaufania sztucznej inteligencji. Trzema filarami trustworthy AI są tam: prawo, etyka oraz solidność (w wymiarze technicznym i społecznym).
Jak zauważają autorzy dokumentu, „choć wiele zobowiązań prawnych odzwierciedla zasady etyczne, przestrzeganie zasad etycznych wykracza poza formalną zgodność z obowiązującymi przepisami”. Co więcej, mimo że normy etyczne niekoniecznie są prawnie wiążące, „mają zasadnicze znaczenie dla zapewnienia wiarygodności” sztucznej inteligencji. Jaką dokładnie rolę ma więc odgrywać etyka w cyfrowym świecie?
Prof. Luciano Floridi, filozof technologii z Uniwersytetu w Oksfordzie, precyzyjnie określa jej zadanie. Tzw. etyka cyfrowa (digital ethics) należy – obok cyfrowego zarządzania (digital governance) i cyfrowych regulacji (digital regulation) – do kluczowych komponentów systemu normatywnego w obszarze technologii informatycznych. Komponenty te wzajemnie na siebie oddziałują: etyka wpływa na obszar regulacji i zarządzania za pomocą moralnej ewaluacji, zaś regulacja kształtuje zarządzanie poprzez wymóg zgodności z prawem.
Jak wyjaśnia Floridi, zgodność z prawem jest niezbędna, lecz niewystarczająca, by kierować rozwój technologii we właściwym kierunku. Regulacje bowiem wskazują, jakie działania są zgodne bądź niezgodne z prawem, lecz nie mówią nic o tym, które z nich są pożądane, byśmy mogli funkcjonować w lepszym społeczeństwie. To właśnie zadanie etyki i zarządzania. W tym pierwszym wypadku chodzi o odpowiednie wartości, w tym drugim – właściwe polityki działania.
Floridi rozróżnia też dwa rodzaje etyki cyfrowej: twardą (hard ethics) i miękką (soft ethics). Twarda etyka określa, co jest dobre i złe, a także co powinno się, a czego nie powinno robić. W tym sensie kształtuje ona prawo. Z kolei miękka etyka odnosi się do działań wykraczających poza ściśle pojmowane regulacje. Jako taka, podkreśla Floridi, znajduje ona zastosowanie tylko tam, gdzie cyfrowa regulacja jest już – nawet jeśli nie w pełni wdrożona – to kształtowana we właściwym kierunku (zdaniem Floridiego taki stan rzeczy zachodzi obecnie właściwie tylko w Unii Europejskiej).
W rozumieniu Floridiego właściwa refleksja etyczna w domenie cyfrowej wymaga stałej analizy oddziaływania technologii, tak by móc określić z góry, w jakim kierunku chcemy je rozwijać. Tylko takie podejście może nas zabezpieczyć przed działaniami reaktywnymi, czyli reagowaniem na nowe zjawiska dopiero wtedy, gdy one już zaistnieją.
W tym sensie cyfrowa etyka jest swego rodzaju moralną busolą pozwalającą wskazywać kierunki zastosowania technologii zgodnie z naszymi społecznymi oczekiwaniami. Niestety, zauważa Floridi, takie podejście obecnie wciąż nie jest powszechne. Najczęściej bowiem pokazujemy swoje preferencje w obszarze cyfrowym dopiero wtedy, gdy negatywne zjawiska są już rozpowszechnione.
Dlatego właśnie etyka nie może być traktowana jako dziedzina marginalna w naszym podejściu do technologii. Jej zadanie nie sprowadza się bowiem do stawiania abstrakcyjnych pytań czy dzielenia włosa na czworo, ale ma konkretne zastosowania praktyczne. Jakie?
Floridi wskazuje, że właściwe podejście etyczne do projektowania i zarządzania sferą cyfrową obejmuje cztery typy działań:
Aby jednak etyka mogła właściwe odgrywać swoją rolę, musi mieć wpływ na strategie rozwoju i wykorzystania technologii już od pierwszego etapu prac projektowych. W przeciwnym razie będzie zawsze o kilka kroków spóźniona, a wówczas łatwo będzie zmarginalizować jako niemającą realnego przełożenia na to, w jakim kierunku zmierzamy.
Co więcej, etyka technologii nie powinna też ulegać prywatyzacji przez firmy komercyjne. Oczywiście, nic w tym złego, gdy przedsiębiorstwa rozwijają własne kodeksy etyczne. Nie może być jednak tak, że to ich perspektywa dyktuje, co jest społecznie pożądane, a co nie. W tym sensie refleksja etyczna staje się działalnością publiczną, jako że uwzględnia preferencje szerokiego grona interesariuszy i winna mieć wpływ na kształtowanie strategii rozwoju technologicznego państw i regionów.
Źródła:
Grupa ekspertów wysokiego szczebla ds. SI, Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji.
Luciano Floridi, „Soft Ethics and the Governance of the Digital”, „Philosophy & Technology” 31, 2018