Etyka sztucznej inteligencji wymaga jasno określonych zasad. Aby móc zgodnie z nimi rozwijać i wdrażać tę technologię, trzeba jednak spełnić także inne warunki. Pierwszorzędne znaczenie mają tu wrażliwość na kontekst oraz umiejętność krytycznego myślenia. Bez nich etyka AI przerodzi się w mechanicznie spełnianą formalność.
Odpowiedzialne tworzenie i implementacja sztucznej inteligencji przestają być abstrakcyjnym postulatem. Już niebawem wymogi etyki AI będą obowiązywały dostawców tej technologii w Unii Europejskiej. Tym istotniejsza jest więc dziś dyskusja o tym, jak je skutecznie wdrażać. Podczas zorganizowanej 14 czerwca przez Centrum Etyki Technologii konferencji „Co poza zbiorem zasad? Szersze spojrzenie na etykę AI. Konteksty, podejścia, ryzyka” rozmawiało o tym międzynarodowe grono ekspertek i ekspertów na co dzień zajmujących się różnymi aspektami AI. Było to już trzecie wydarzenie CET poświęcone etyce sztucznej inteligencji.
Przemysł 4.0 przyniósł niespotykane dotąd zmiany w biznesie, przedefiniował nasze życie i sposoby pracy. Nie ma uniwersalnej recepty na sukces w czasie gwałtownych zmian technologicznych, ale świadomość i rozumienie etycznych postaw wobec ciągle zmieniającego się otoczenia okazują się niezbędne. Przejrzystość, odpowiedzialność, aktywna obecność w otoczeniu i etyczne postępowanie to recepta na innowacje, które będą służyły całemu społeczeństwu – mówi Beata Staszków, prezes Zarządu Związku Pracodawców Polska Miedź, partnera konferencji.
Wojna w Ukrainie dobitnie pokazała społeczności międzynarodowej, czym kończy się przymykanie oczu na ważne kwestie etyczne. Często ignorujemy pierwsze sygnały ostrzegawcze, a potem jest już za późno, by skutecznie przeciwdziałać zagrożeniom. Dlatego dziś w obliczu konfliktu zbrojnego za naszą wschodnią granicą nie możemy przesuwać na dalszy plan kwestii związanych z ekologią czy etyką technologii. W przeciwnym razie niebawem nie będziemy już w stanie znaleźć skutecznych rozwiązań dla tych problemów – ostrzegała Zofia Dzik, prezes Instytutu Humanites i przewodnicząca Rady Programowej CET.
Z kolei minister Justyna Orłowska przypomniała, że dwa lata temu dobiegły końca konsultacje dotyczące Białej Księgi AI, a niedługo później Rada Ministrów przyjęła Politykę rozwoju sztucznej inteligencji w Polsce. Wyraziła też nadzieję, że konferencja zaowocuje kolejnymi rekomendacjami nieujętymi dotychczas w rządowym dokumencie.
Największym problemem związanym z etyką sztucznej inteligencji jest dziś mylenie jej dwóch zasadniczych wymiarów: normatywnego i krytycznego – przekonywała dr Anaïs Rességuier z Trilateral Research, keynote speaker konferencji. Normy i zasady wymagają mechanizmów zapewnienia zgodności, podczas gdy myślenie krytyczne polega na uważności na kontekst i gotowości aktualizowania zasad do stale zmieniającej się rzeczywistości. Jeśli oba te wymiary są ze sobą mylone, normy etyczne dotyczące AI są traktowane instrumentalnie i wybiórczo, zaś refleksja nad oddziaływaniem sztucznej inteligencji jest powierzchowna i nie znajduje przełożenia na praktykę.
Dlatego tak ważne jest włączenie wymogu zgodności z zasadami etyki AI do regulaminów przyznawania grantów w dziedzinie nowych technologii. Z drugiej strony należy zapewnić rozwój interdyscyplinarnych badań nad oddziaływaniem sztucznej inteligencji w wymiarze społecznym, politycznym czy ekologicznym.
Europa porzuciła już naiwną wiarę w to, że do zaprowadzenia porządku na rynku AI wystarczy korporacyjna samoregulacja. Sztuczna inteligencja przenika do wszystkich obszarów naszego życia i nie możemy biernie przyglądać się jej rozwojowi. Jednak skuteczna regulacja powinna być technologiczne neutralna, aby zachować niezbędną elastyczność w sytuacji, gdy nowe rozwiązania pojawiają się jak grzyby po deszczu – wyjaśniał Paul Nemitz z Komisji Europejskiej.
Jedną z najważniejszych lekcji płynących z wojny na Ukrainie jest konieczność zachowania krytycznego stosunku wobec wszelkich form władzy – także tych możliwych dzięki technologiom. Dlatego cały dyskurs dotyczący zaufania do AI wymaga szczególnej ostrożności. Musimy mieć jasne kryteria tego, co można pozostawić w sferze samoregulacji, i tego, co powinno być objęte twardym prawem.
Nemitz zwrócił także uwagę, że AI jest technologią nacechowaną wartościami, dlatego inwestorzy są powściągliwi wobec rozwiązań tworzonych w państwach autorytarnych, jak np. Chiny. Podkreślił, że jasne prawo dotyczące sztucznej inteligencji będzie korzystne dla przedsiębiorców, ponieważ stworzy ramy dające się wykorzystać także w wymiarze marketingowym. Firmy działające na dobrze uregulowanym rynku nie będą musiały przekonywać konsumentów, że są godne zaufania. Wystarczy, że wskażą obowiązujące przepisy, których muszą przestrzegać – argumentował.
Podkreślał zarazem, że w przeciwieństwie do RODO, unijne rozporządzenie dotyczące sztucznej inteligencji to prawo pierwszej generacji, dopiero rozpoczynające historię legislacji w tym obszarze. Jako takie będzie wymagało nie tylko współpracy miedzy państwami, ale także uzgodnień międzysektorowych.
Podczas konferencji nie zabrakło również głosu przedstawicielek środowiska inżynierów AI. Ewa Marczewska i Agnieszka Mikołajczyk omówiły prośrodowiskowy projekt Detect Waste in Pomerania, w którym powstało rozwiązanie umożliwiające rozpoznawanie i klasyfikację odpadów z wykorzystaniem uczenia maszynowego. Badaczki podkreśliły, że przy pracach nad projektem zadbano o właściwe przygotowanie danych treningowych (także pod kątem etycznym). Szczególna uwagę zwrócono również na zminimalizowanie śladu węglowego tworzonego modelu AI.
Bardzo łatwo prowadzić energochłonne prace nad systemami uczenia maszynowego – mówiła Agnieszka Mikołajczyk. Znacznie ciężej jest robić to efektywnie, tak by zapewnić skuteczność modelu, a zarazem rozsądnie gospodarować mocami obliczeniowymi.
Obie badaczki entuzjastycznie odniosły się też do pomysłu tzw. sustainability budgets, które wprowadzałyby limity zużycia energii przy obliczeniach realizowanych w projektach AI. O takich koncepcjach trzeba głośno mówić, ponieważ jeśli w naszym słowniku brak pewnych kategorii, to wiele problemów pozostaje dla nas niewidocznych – wyjaśniała Ewa Marczewska. Zarazem podkreślała, że w Polsce środowisko badaczy AI jest raczej dobrze nastawione do inicjatyw proekologicznych czy działań podejmowanych na rzecz równouprawnienia, jak Women in Machine Learning and Data Science.
Karolina Drobotowicz z Uniwersytetu Aalto w Finlandii przekonywała, że interdyscyplinarność i zróżnicowanie to podstawa demokratyzacji tworzenia usług publicznych. Bardzo ważne jest też zaufanie, ponieważ podmiotom, które je zdobyły, zależy na jego utrzymaniu i w rezultacie jeszcze bardziej dbają o jakość usług.
Przy wdrażaniu innowacji istotne jest jednak nie tylko zaufanie wobec sektora publicznego, lecz także wobec samej technologii. Stąd też kluczowego znaczenia nabiera w tym kontekście przejrzystość działania AI. Instytucje chcące wykorzystywać sztuczną inteligencję powinny umieć wytłumaczyć obywatelom, w jakim celu chcą używać tej technologii, w jaki sposób będzie ona działała, oraz dlaczego podjęła ona taką a nie inną decyzję.
Badaczka podkreślała również, że rozwiązania zapewniające transparentność powinny zachęcać użytkowników. Ludzie nie chcą czytać kolejnych regulaminów ani zaznaczać zgód, jak ma to miejsce np. w przypadku plików cookie.
Większym wyzwaniem od przejrzystości jest jednak wypracowanie efektywnego mechanizmu partycypacji. Tu najczęstszymi problemami są: brak czasu i zaangażowania po stronie użytkowników, zaś w przypadku instytucji – znalezienie skutecznego sposobu dotarcia do obywateli oraz sprawne włączenie interesariuszy do procesu projektowania.
O szansach, jakie dla innowacji stanowi regulacja, mówiła z kolei Bruna de Castro e Silva z fińskiego Tampere University. Podkreślała, że technologie nie mogą powielać problemów, które mamy w społeczeństwie, ale powinny przyczyniać się do ich eliminacji. To wielkie wyzwanie, ponieważ efektywne prawo wymaga współpracy i transformacji na poziomie organizacyjnym. Jest to jednak niezbędne, by wszyscy mogli w równym stopniu korzystać z możliwości oferowanych przez innowacje. Regulacja może być czynnikiem stymulującym rozwój, ale żeby tak się stało, musi jasno określać nasze powinności, prawa i odpowiedzialność – wyjaśniała.
W podsumowaniu konferencji dyrektor programowy CET Maciej Chojnowski podkreślił znaczenie zaufania jako wartości, na której zdobyciu i utrzymaniu powinno szczególnie zależeć wszelkim organizacjom wykorzystującym sztuczną inteligencję. Odniósł się także do potrzeby popularyzowania nowych sposobów mówienia o technologii, które zwiększałyby zdolność krytycznej refleksji w społeczeństwie. Zwrócił także uwagę na znaczenie interdyscyplinarności oraz kontekstowego myślenia przy rozwijaniu nowych technologii.
Konferencja „Co poza zbiorem zasad? Szersze spojrzenie na etykę AI. Konteksty, podejścia, ryzyka” została objęta honorowym patronatem przez GovTech Polska. Partnerami wydarzenia byli Związek Pracodawców Polska Miedź oraz Grupa Robocza ds. Sztucznej Inteligencji przy Kancelarii Prezesa Rady Ministrów, zaś patronami medialnymi – „Forum Akademickie” i „ITWiz”.