Close

Przeciw cyfrowemu autorytaryzmowi – konferencja „Etyka technologii: kierunki, trendy, wyzwania”

Etyka technologii jest szansą dla biznesu, ale wymaga współpracy różnych interesariuszy. W dobie transformacji cyfrowej nie sposób dłużej mierzyć oddziaływania innowacji wyłącznie przez pryzmat opłacalności i wykonalności. Kryterium oceny muszą być korzyści całego społeczeństwa.

Konferencja CET „Etyka technologii: kierunki, trendy, wyzwania. Gdzie jesteśmy? Dokąd zmierzamy?” była pierwszym tego typu wydarzeniem w Polsce poświęconym w całości problematyce odpowiedzialnego rozwoju innowacji. Eksperci z różnych środowisk i branż przedstawili aktualny stan rekomendacji dotyczących etyki technologii, omówili ich wpływ na powstające regulacje oraz ocenili szanse i ryzyka związane z ich wdrożeniem w praktyce. Poświęcili też uwagę oddziaływaniu etyki na krajowe i międzynarodowe polityki inwestycyjne i rozwojowe.


Etyka w ekosystemie innowacji

Stojąca na czele GovTech Polska (instytucji odpowiedzialnej za wdrożenie krajowej polityki rozwoju sztucznej inteligencji) minister Justyna Orłowska podkreśliła, że o etyce i regulacjach trzeba myśleć w kontekście szeroko rozumianych mechanizmów wsparcia. Jeśli państwo finansuje rozwój danego sektora, to musi mieć pewność, że odbywa się to z poszanowaniem praw i wolności obywatelskich – przekonywała. Etyka jest wpisana w założenia rozwoju technologii w Polsce.

Podobnego zdania był Robert Kroplewski z Kancelarii Prezesa Rady Ministrów, który mówił, że etyczność stanowi część szerszych działań społecznych czy rynkowych, które mogą przyjąć zarówno formę prawną (tam gdzie to konieczne), jak i polityk inwestycyjnych. Zwracał zarazem uwagę, że unijna propozycja prawa dotyczącego sztucznej inteligencji – choć przełomowa (wskazanie stopni ryzyka systemów AI i różnych typów interwencji) – stanowi też część równolegle podejmowanych działań regulacyjnych dotyczących rynku cyfrowego, danych i usług.

Kroplewski podkreślał, że w Europie zaczyna dziś dominować nowe rozumienie konkurencyjności:  oparte na jakości i rezultatach pracy oraz na własności intelektualnej, a nie na dostępie do zasobów (danych czy bibliotek algorytmów). Ten drugi model okazuje się dziś przebrzmiały i przeciwskuteczny dla produktywności państw i przedsiębiorstw.  


Punkt wyjścia: pryncypia etyczne

Projektowanie polityk rozwoju powinno się zaczynać od określenia zasad etycznych, które są zgodne z wartościami danego społeczeństwa – zaznaczyła Małgorzata Darowska z Centralnego Portu Komunikacyjnego. Co więcej, musi się to odbywać z udziałem różnych interesariuszy. Pryncypia etyczne nie mogą być wynikiem definiowania polityki, ale powinny stanowić jej podstawę.

Zarazem w proces definiowania i wdrażania polityk powinna być wpisana możliwość rewizji i zmian, oczywiście prowadzona w trybie społecznych uzgodnień, a nie w sposób arbitralny. Taka konieczność wynika z dynamiki rynku technologii, który bardzo szybko ewoluuje.

Darowska podkreślała, że projektowanie polityk rozwoju musi uwzględniać nie tylko korzyści dla gospodarki, ale także punkt widzenia obywateli. Chodzi tu choćby o możliwość egzekwowania naruszeń praw obywatelskich przez firmy technologiczne. Istotne jest też takie kształtowanie polityki, które zapewnia spójność społeczno-gospodarczą oraz zrównoważony rozwój. Wreszcie gwarantem przestrzegania reguł gry rynkowej jest jasne przypisane odpowiedzialności za działanie danej technologii.


Zasada odpowiedzialności

Podobnego zdania był Radim Zajicek z Australian Securities Exchange (ASX), największej giełdy papierów wartościowych w Australii. Zauważył, że uniwersalną zasadą wynikającą z projektu regulacji AI jest odpowiedzialność właściciela danej technologii za jej użycie. To właściwe podejście, ponieważ pozwala ono zapewnić, że ktokolwiek używa danego narzędzia, pozostaje za nie odpowiedzialny, a także jest w stanie wyjaśnić zasady jego funkcjonowania.

Również dr Joanna Mazur z DELab UW uznała, że możliwość pociągnięcia do odpowiedzialności podmiotów używających AI jest kluczowym warunkiem umożliwiającym ograniczenie nadużyć wynikających z niewłaściwego działania tej technologii. Chwaliła też radykalne wzmocnienie podejścia opartego na ryzyku w europejskim projekcie regulacji sztucznej inteligencji, polegające na wprowadzeniu kategorii ryzyka niemożliwego do zaakceptowania. Zarazem podkreślała, że w tym przypadku sukces etycznego podejścia zależy od tego, czy zapisy te znajdą się w ostatecznej wersji dokumentu oraz kiedy wejdą one w życie.

Zasada odpowiedzialności nie ma wywoływać lęku, ale gwarantować należytą staranność i przewidywanie konsekwencji przez twórców technologii – podkreślała Małgorzata Darowska, przywołując myśl Hansa Jonasa. Z tego względu nie można nigdy zapominać o ewentualnych negatywnych skutkach postępu przy planowaniu polityki rozwoju. Po kilkudziesięciu latach doświadczeń z technologiami nie możemy wykazywać się analfabetyzmem wtórnym i musimy antycypować przyszłe wydarzenia – argumentowała.

Odpowiedzialność to także solidność techniczna – mówiła dr Ilona Urbaniak z NASK. Sztuczna inteligencja nie istnieje bez danych. I choć w erze Big Data zwracamy dziś uwagę przede wszystkim na ich ilość, to w rzeczywistości najważniejsze są jakość danych oraz metody ich przetwarzania, niezbędne do właściwego trenowania modeli AI.


Społeczny probierz technologii

Z kolei zdaniem Borysa Stokalskiego z Rethink przyspieszenie technologiczne prowadzi dziś do konfliktu między dążeniem do szybkiego adaptowania nowych rozwiązań a troską o ich niepewne konsekwencje. W takiej sytuacji monitorowanie rozwoju oraz eksperymenty futurologiczne nie wystarczą. Niezbędna staje się refleksja filozoficzna i etyczna. Sprowadziliśmy ocenę sensowności postępu technologicznego do tego, czy coś jest wykonalne i opłacalne – przekonywał. Tymczasem musimy jeszcze rozumieć, po co rozwijamy daną technologię i czy w ogóle warto to robić.

Na konieczność oceny technologii przez pryzmat jej społecznego oddziaływania zwracała uwagę dr Dominika Kaczorowska-Spychalska z Centrum Mikser Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego. Mówiąc o innowacjach w edukacji, przestrzegała przed zbyt pochopnym uleganiem potrzebie maksymalizacji efektów nauczania kosztem innych wartości, jak prywatność czy kreatywność. Podkreślała też, że miejscem, w którym spotykają się perspektywy różnych interesariuszy rozwoju technologii (jak biznes, nauka czy rządzący), muszą być korzyści społeczeństwa.


Programiści i zaufanie

Podobnego zdania był dr Robert Sroka z Abris Capital Partners, który twierdził, że alternatywa „bezpieczeństwo albo rozwój” jest błędna. Obecnie funkcjonujemy w systemie rabunkowym, w którym nasze dane są bezceremonialnie przechwytywane i wykorzystywane przez graczy w cyfrowym biznesie. W rezultacie grozi nam nowy autorytaryzm – tym razem jednak nie polityczny, ale technologiczny. Aby tego uniknąć, potrzebujemy uczynić z etyki szansę biznesową. Do tego niezbędna jest jednak szeroka współpraca różnych interesariuszy.

Sroka podkreślał, że w dobie popandemicznej na znaczeniu zyskuje zasada pomocniczości, polegająca na decentralizacji zarządzania i przekazywaniu wielu decyzji w ręce lokalnych ośrodków. Tym samym etyka musi znaleźć odzwierciedlenie nie tylko w odgórnych restrykcyjnych regulacjach prawnych, ale również w dobrowolnych działaniach samoregulacyjnych prowadzonych przez organizacje branżowe. Przekonywał, że wspólna inicjatywa całego sektora ICT mogłaby doprowadzić do tego, że bycie programistą AI stałoby się zawodem zaufania publicznego (np. poświadczanym odpowiednim certyfikatem).

Pomysł certyfikowania programistów wzbudził wątpliwości Roberta Kroplewskiego, który zauważył, że takie rozwiązanie może stać się narzędziem międzynarodowej konkurencji i nowym sposobem na monopolizowanie rynków. Zgodził się jednak z potrzebą kształtowania etosu twórców oprogramowania.

Z kolei zdaniem dr Joanny Mazur rozwiązania oparte na dobrej woli przedsiębiorców (np. kodeksy dobrych praktyk) są raczej nieskuteczne. Dr Sroka przekonywał jednak, że mechanizmy samoregulacji powinny stanowić wspólną całość z działaniami regulacyjnymi i współregulacyjnymi, jak np. powołanie właściwego organu krajowego realizującego zadania wyznaczone w projekcie prawa AI.


Niebezpieczeństwo legalizmu

Przed postrzeganiem kwestii etycznych w sposób nazbyt legalistyczny przestrzegał Maciej Chojnowski z CET. Zauważył, że w kontekście technologii zbyt często traktuje się dziś etykę jako słabszą odmianę prawa. Takie podejście wiąże się co najmniej z dwoma problemami. Po pierwsze, kwestie etyczne łatwo wtedy sprowadzić do formalnego wymogu zgodności z zasadami, co skutkuje brakiem głębszej refleksji nad etycznymi konsekwencjami technologii. Po drugie zaś, etyka nie posiadając równych prawu narzędzi egzekwowania norm, może stać się wygodną furtką do omijania twardych regulacji.  

Dr Robert Sroka zauważył jednak, że w przypadku praktyk samoregulacyjnych ryzyko manipulacji można zminimalizować poprzez swoiste bezpieczniki wpisane w system, jak choćby komisje etyki z udziałem ekspertów zewnętrznych, możliwość zgłaszania nadużyć do organizacji branżowych czy system certyfikacji firm. Przekonywał też, że samoregulacja w wykonaniu organizacji branżowych daje gwarancję właściwych diagnoz oraz skutecznych i elastycznych rozwiązań.


Sumienie nadal w cenie

Zdaniem Zofii Dzik, prezes Instytutu Humanites i przewodniczącej Rady Programowej CET, etyka technologii to jednak nie tylko rozwiązania systemowe, ale także indywidualne decyzje liderów i wszystkich twórców i użytkowników cyfrowych innowacji. Relacje między człowiekiem a technologią to test na to, jak podchodzimy do wartości i w jaki sposób określamy granice tego, co możliwe do zaakceptowania.

Potrzeba nam dziś ludzi gotowych zakwestionować status quo – podkreślała. Tacy pozytywni rebelianci są w stanie skierować nasze myślenie na nowe tory. Ale oprócz wyrazistych postaci, o których głośno w mediach, ważni są także cisi bohaterowie. Nieznani światu, lecz mający odwagę iść pod prąd i przeciwstawić się temu, co niezgodne z ich sumieniem. Bez tego, zdając się wyłącznie na korekty systemowe, utracimy nasze moralne ja.

 

Konferencję „Etyka technologii: kierunki, trendy, wyzwania. Gdzie jesteśmy? Dokąd zmierzamy?”  objęły patronatem honorowym GovTech Polska oraz NASK. Partnerami wydarzenia byli: Abris Capital Partners, DELab UW, Ambasada Izraela w Warszawie oraz Centrum Mikser Inteligentnych Technologii Wydziału Zarządzania Uniwersytetu Łódzkiego. Patronami medialnymi konferencji były “Forum Akademickie” oraz magazyn i portal “ITWiz”.

Korzystamy z plików cookies. Pliki cookie pozwalają na poznanie Twoich preferencji na podstawie zachowań w czasie wizyty na stronie. Kontynuując korzystanie ze strony, wyrażasz na to zgodę. Poznaj szczegóły i możliwości zmiany ustawień klikając w przycisk Więcej.

Skip to content