Close

Miejsce etyki w polityce rozwoju sztucznej inteligencji w Polsce

Budowanie sztucznej inteligencji wedle standardów etycznych to jeden ze strategicznych celów polskiej polityki rozwoju AI. Zgodnie z nią Polska ma w 2027 r. stać się jednym z najbardziej aktywnych krajów realizujących unijną koncepcję godnej zaufania sztucznej inteligencji. Ważną rolę do odegrania będzie miał tu sektor publiczny.

Opublikowana w styczniu 2021 r. Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020 definiuje działania i cele w obszarze rozwoju AI w trzech perspektywach: krótko- (do 2023 r.), średnio- (do 2027 r.) oraz długoterminowej (po 2027 r.). Unijna koncepcja godnej zaufania AI (trustworthy AI), w której etyka – obok prawa i solidności – stanowi kluczowy komponent, została uwzględniona w każdej z nich.

Oprócz przyjęcia trzech horyzontów czasowych krajowa polityka AI wyodrębnia również sześć głównych obszarów istotnych ze względu na rozwój sztucznej inteligencji. Chodzi o: społeczeństwo, innowacyjne firmy, naukę, edukację, współpracę międzynarodową i sektor publiczny. W każdym z tych przypadków komponent etyczny również ma znaczenie. Jak w praktyce ma przebiegać tworzenie godnej zaufania AI nad Wisłą?

Administracja świeci przykładem

Jedno z najważniejszych zadań stoi przed administracją publiczną. Ma ona przede wszystkim wyznaczać standardy wdrożeń sztucznej inteligencji, ze szczególnym uwzględnieniem zasad etyki AI. W tym celu w ciągu najbliższych dwóch lat winna ona wypracować reguły przejrzystości, audytowania i odpowiedzialności za wykorzystanie algorytmów w sektorze publicznym.

Do jej najpilniejszych zadań należy także organizacja pilotaży dotyczących ocen ryzyka oraz modeli wyjaśniania decyzji podejmowanych przez systemy AI używane przez administrację. Wiąże się to bezpośrednio z koniecznością wypracowania zbioru dobrych praktyk uwzględniających kwestie audytu i oceny ryzyka systemów sztucznej inteligencji.

Bardzo ambitnym celem, na którego realizację polityka daje rządzącym nieco więcej czasu (do 2027 r.), jest włączenie Polski do grona krajów najbardziej aktywnych w rozwijaniu etycznego wykorzystywania danych zgodnie z koncepcją godnej zaufania AI. Ma w tym pomóc wypracowanie dynamicznego etycznego kodeksu sztucznej inteligencji, który polski rząd powinien stworzyć we współpracy z ekspertami AI.

Siła napędowa inwestycji

Współpraca z krajami mającymi podobne do Polski priorytety i agendę działania to kolejny ważny punkt krajowej polityki rozwoju AI. Choć na stworzenie koalicji z innymi państwami rządzący dają sobie sześć lat, to już w 2023 r. w Polsce ma powstać międzynarodowe Centrum Innowacji Cyfrowych (Digital Innovation Hub) specjalizujące się właśnie w godnej zaufania AI.

Co warte podkreślenia, autorzy polityki widzą w tym jeden z warunków sprzyjających inwestycjom zagranicznym w innowacyjne projekty w Polsce. Jest to zgodne z unijnymi założeniami trustworthy AI, w których etyczność sztucznej inteligencji nie zahamowuje rozwoju technologicznego na Starym Kontynencie, ale staje się kołem zamachowym budowy przyjaznych człowiekowi innowacji.

W Polsce planuje się też w ciągu najbliższych dwóch lat podjąć pilotażowe projekty pozwalające oceniać ryzyko systemów wykorzystujących AI. Ich rezultaty winny znaleźć przełożenie na ogólnoeuropejskie standardy w tej dziedzinie, które umożliwiałyby m.in. stworzenie systemów certyfikacji AI.

Etyka w sylabusie

Do 2023 r. należy też opracować strategię cyfrowej edukacji dla wszystkich poziomów nauczania. Prezentacja zastosowań narzędzi opartych na sztucznej inteligencji ma być w niej zgodna z zasadami etyki AI. W przypadku uczelni wyższych łączy się to z potrzebą tworzenia studiów o charakterze interdyscyplinarnym, na których nabywanie kompetencji ściśle technicznych szłoby w parze ze zdobywaniem wiedzy z zakresu nauk humanistycznych i społecznych ukierunkowanym na tworzenie etycznych ram dla narzędzi AI.

Twórcy polskiej polityki AI zwracają uwagę, że także samo wykorzystanie sztucznej inteligencji w praktyce edukacyjnej powinno być zgodne z zasadami etyki, co z kolei wymaga stworzenia odpowiednich standardów i dobrych praktyk.

Rola spółek Skarbu Państwa

Ze względu na swoje możliwości inwestycyjne i operacyjne istotną rolę do odegrania w rozwoju etycznej AI mają w Polsce spółki Skarbu Państwa. Chodzi przede wszystkim o możliwości testowania różnego typu pojazdów autonomicznych w wydzielonych strefach gwarantujących bezpieczeństwo, co pomogłoby określić granice prawnej odpowiedzialności twórców danego rozwiązania oraz osób nim sterujących.

Innym zadaniem spółek Skarbu Państwa jest tworzenie baz wiedzy oraz dobrych praktyk dotyczących wdrażania i używania rozwiązań opartych na sztucznej inteligencji.

W trosce o społeczeństwo

Nadrzędnym celem wszystkich opisanych powyżej działań jest stworzenie w Polsce takich rozwiązań z dziedziny sztucznej inteligencji, które nie tylko gwarantowałyby bezpieczeństwo ich użytkownikom (w szerokim sensie: uwzględniającym także osoby zależne od decyzji podejmowanych przez algorytmy), ale także przyczyniały się do rozwoju nowych umiejętności w społeczeństwie. W tym celu w najbliższych dwóch latach należy wypracować niezależne metody audytowania systemów AI i rozpocząć analizę etycznych skutków ich wdrożeń – szczególnie w obszarach etycznie wrażliwych, np. dotyczących sfery publicznej czy praw człowieka.

Ponadto przedstawiciele Polski powinni brać czynny udział w kształtowaniu międzynarodowych regulacji związanych z AI, jak również rekomendacji dotyczących ich etycznego rozwijania i wdrażania. Ważnym celem na najbliższe lata jest też budowanie zaufania społecznego wobec sztucznej inteligencji, co wymaga m.in. wspierania niezależnych narzędzi oceny ryzyka systemów AI oraz promowania świadomego i krytycznego użytkowania cyfrowych innowacji w społeczeństwie.

Biorąc etykę poważnie

Uczynienie z etyki jednego z priorytetów polityki rozwoju AI w Polsce to ruch w dobrym kierunku. Będzie on jednak wymagał determinacji, by zadeklarowane cele i działania rzeczywiście znalazły odzwierciedlenie w praktyce. Etyczny rozwój technologii wiążę się bowiem z koniecznością wypracowania nowej filozofii działania, w której wydajność i tempo wdrożenia przestają być głównymi kryteriami oceny innowacji. Równie ważne staje się oddziaływanie technologii na człowieka i środowisko, co w praktyce oznacza projektowanie, wdrażanie i używanie nowych narzędzi we współpracy z interesariuszami, na których życie wywierają one wpływ.

To niełatwe zadanie, ale warto się go podjąć, jeśli naprawdę chcemy, by godna zaufania sztuczna inteligencja stała się flagowym produktem made in Poland. Lektura Polityki rozwoju AI w Polsce dowodzi, że etyka AI nie jest tam jedynie ornamentem, ale stanowi motyw przewodni całego dokumentu. To dobry prognostyk.

Źródła:

Skip to content