Close

David Wright:
Wierzę w integrację standardów AI

21 lutego, 2023
Maciej Chojnowski

Mam nadzieję, że w sprawie AI Act Rada Europejska, Parlament i Komisja osiągną realny konsensus, który zostanie dobrze przyjęty przez interesariuszy tego rozporządzenia. Myślę również, że wraz z przyjęciem AI Act nastąpi większa harmonizacja w ocenach ryzyka AI. Dzięki RODO Komisja Europejska dała wytyczne co do oceny oddziaływania w zakresie ochrony danych i może zrobić to samo w przypadku AI Act – mówi David Wright w rozmowie z Maciejem Chojnowskim.

Maciej Chojnowski: W raporcie poświęconym metodom oceny ryzyka sztucznej inteligencji przygotowanym wspólnie przez Trilateral Research i EY odnosicie się do oceny ryzyka (risk assessment), oceny oddziaływania (impact assessment) oraz zarządzania ryzykiem (risk management) jako podobnych, ale jednak odrębnych podejść. Można by do nich jeszcze dodać ocenę zgodności (conformity assessment). Wszystkie te pojęcia mają ze sobą coś wspólnego, ale zarazem nie dotyczą tych samych zagadnień. Czy możesz wyjaśnić zachodzące między nimi relacje?

David Wright*: Ocena oddziaływania jako pojęcie ogólne ma oczywiście najszersze znaczenie. Istnieją też różne jej rodzaje: oceny oddziaływania dotyczące prywatności, etyki, inwigilacji, bezpieczeństwa czy środowiska. Zazwyczaj przeprowadza się je zgodnie z określoną procedurą. Choć i wśród nich występują różnice.

Zarządzanie ryzykiem to trochę inne pojęcie, choć naturalnie związane z oceną ryzyka. Ponieważ aby zarządzać ryzykiem, trzeba je najpierw ocenić i zdecydować, które kwestie są priorytetowe, gdzie skupić uwagę itd.

Z kolei ocena zgodności to coś zupełnie innego. W Europie odnosi się ona do spełniania unijnych standardów. Aby zdobyć oznaczenie CE, trzeba sprostać określonym wymogom regulacyjnym. Komisja Europejska jest na dość zaawansowanym etapie, jeśli chodzi o rozwój oznakowania w obszarze cyberbezpieczeństwa (cybersecurity seal), które służyłoby certyfikacji produktów oraz usług z obszaru programowania.

Przyjrzyjmy się obecnym pracom w obszarze oceny ryzyka AI. Co już udało się zrobić, a na co wciąż czekamy, jeśli chodzi o skuteczne narzędzia bądź procedury governance?

W trakcie pracy nad raportem dla EY przyglądaliśmy się różnym rodzajom ocen ryzyka sztucznej inteligencji (bądź też podejść bardzo bliskich temu, co określamy tym mianem). Trzeba powiedzieć, że istnieje wiele organizacji (włącznie z firmami), które już myślą o tych kwestiach. AI przynosi korzyści, ale także ryzyka. I te ostatnie zostały dobrze nagłośnione w mediach. Dlatego firmy są na pewno świadome, że muszą brać je pod uwagę, lub w przeciwnym razie ich reputacja może ucierpieć.

Tak więc jeśli chodzi o kontekst, to jest on bardzo korzystny dla wprowadzenia oceny ryzyka sztucznej inteligencji. Myślę, że w 2023 r. Rada Europejska, Parlament i Komisja porozumieją się w sprawie AI Act (unijny projekt rozporządzenia dot. sztucznej inteligencji – red.). Przyjęcie tego rozporządzenia będzie dość istotnym czynnikiem w coraz szerszym stosowaniu oceny ryzyka AI.

We wspomnianym raporcie wskazujecie na dwa główne rodzaje oceny ryzyka AI: rozpoznanie konkretnych zagrożeń (specific risks) oraz klasyfikację ogólnego poziomu ryzyka. Czy ten drugi z wymienionych rodzajów powinien stanowić pierwszy krok w ewaluacji systemów AI (podczas gdy pierwszy byłby dopiero kolejnym krokiem), czy może raczej nie sposób określić ogólnego poziomu ryzyka bez wcześniejszego zidentyfikowania konkretnych zagrożeń? Występuje tu jedna prawidłowa kolejność, czy może wszystko zależy od sytuacji?

Powiedziałbym, że pierwszym krokiem zdecydowanie powinno być rozpoznanie konkretnych zagrożeń. Nie ma co do tego wątpliwości. Dopiero po ich rozpoznaniu można odnieść się do AI Act, żeby sprawdzić, czy podpadają one pod jedną z czterech różnych kategorii ryzyka, obejmujących m.in. zakazane praktyki oraz działania o wysokim ryzyku. Zapewne będą one odpowiadały którejś kategorii.

Dlatego pierwszym krokiem jest zdecydowanie rozpoznanie zagrożeń, a dopiero potem sprawdzenie, jakim kategoriom je przypisać oraz jakie środki podjąć w związku z taką klasyfikacją.

Wasz raport zawiera przegląd różnych standardów oceny ryzyka AI. Czy sądzisz, że gdy rozporządzenie AI Act wejdzie w życie, będziemy mieli jeden właściwy europejski standard w tym zakresie (np. opracowany przez Europejski Komitet Normalizacyjny CEN), czy może raczej należy się spodziewać współwystępowania różnych rozwiązań (autorstwa takich organizacji, jak ISO i IEEE), włącznie z tymi, które powstały w ramach projektów badawczych jak SIENNA?

Bardzo dobre pytanie, jednak aby na nie odpowiedzieć, trzeba by mieć pod ręką magiczną kulę, a ja nie jestem pewien, czy najlepiej przepowiadam przyszłość. Jednak z pewnością ISO, a w szczególności Trzecia Grupa Robocza 42 Komisji Specjalnej przygląda się tego rodzaju kwestiom i opracowała zasady, do których powinny się stosować systemy AI. Myślę więc, że będzie to miało duży wpływ. Z kolei CEN śledzi na bieżąco prace ISO.

Jednak o ile rozporządzenie AI Act jest regulacją sensu stricto, o tyle przyjęcie standardów ISO jest dobrowolne. Mimo to jestem pewien, że pewnym minimum będzie przestrzeganie AI Act oraz kilku standardów ISO.

Oprócz tego poszczególne firmy czy stowarzyszenia branżowe mogą też przyjmować różne zasady czy kodeksy dobrych praktyk należące do tego samego zbioru, co AI Act i normy ISO. Tak więc jeśli weźmiemy pod uwagę te wszystkie działania, to i tak najpewniej będziemy mieli do czynienia z różnymi rodzajami standardów.

Pozostańmy jeszcze przez chwilę przy tym wątku. W jednym z ostatnich raportów opracowanych przez Wspólne Centrum Badawcze Komisji Europejskiej poświęconych standaryzacji AI czytamy: „prace standaryzacyjne na poziomie europejskim postrzegamy jako narzędzie integrowania i uzupełniania wartościowego dorobku organizacji takich, jak ISO/IEC czy IEEE, które przeciwdziała fragmentaryzacji standardów w zakresie zarządzania ryzykiem AI i tym samym ułatwia dostawcom sztucznej inteligencji zapewnienie zgodności z nimi”. Czy uważasz, że taka integracja będzie skutkiem prac podejmowanych przez CEN?

Zdecydowanie tak. Wszystkie te organizacje rozmawiają ze sobą. Często ci sami ludzie chodzą na spotkania CEN i ISO oraz biorą udział w różnych konsultacjach Komisji Europejskiej dotyczących AI Act. Dlatego głęboko wierzę, że tak właśnie się stanie.

Czy jednak spodziewasz się jakiegoś oryginalnego wkładu ze strony CEN? Można bowiem pomyśleć, że skoro ISO i IEEE już rozpoczęły prace nad standardami, podczas gdy CEN jeszcze tego nie zrobił, to gdy wreszcie zacznie, będzie miał z czego wybierać. Zastanawiam się więc, czy dostarczą jakąś wartość dodaną do istniejącej wiedzy, czy po prostu powtórzą to, co już zostało powiedziane gdzie indziej.

Nie potrafię odpowiedzieć na to pytanie. Wiem jednak, że CEN dokładnie śledzi poczynania ISO i że utworzył grupę roboczą zajmującą się zagadnieniami etycznymi w jakimś stopniu zbieżnymi z tym, co robi Trzecia Grupa Robocza 42 Komisji Specjalnej ISO. Nie jestem pewien, jaki dokładnie jest jej obecny status. Kiedy ostatnim razem sprawdzałem, trwały dyskusje nad utworzeniem tej grupy w CEN.

W swoich pionierskich pracach dotyczące oceny oddziaływania zajmowałeś się takimi obszarami, jak prywatność czy inwigilacja. Zważywszy na to doświadczenie, jakie są twoje największe nadzieje i obawy, jeśli chodzi o przyszłe systemy oceny ryzyka sztucznej inteligencji oraz legislację AI? O czym przede wszystkim powinni pamiętać twórcy prawa oraz organizacje normalizacyjne?

Jeśli chodzi o pozytywy, to mam nadzieję, że wspomniane trzy instytucje pracujące nad AI Act osiągną realny konsensus, który zostanie dobrze przyjęty przez interesariuszy tego rozporządzenia. Oczywiście, niektórym się to nie spodoba. Ci spoza Europy mogą mieć zastrzeżenia do ekstraterytorialności AI Act  (extraterritoriality, chodzi o obowiązywanie prawa także wobec podmiotów spoza granic UE – red.). Niemniej jednak mam nadzieję, że zostanie ono powszechnie zaakceptowane.

Myślę również, że wraz z przyjęciem AI Act nastąpi większa harmonizacja w ocenach ryzyka AI. Dzięki RODO Komisja Europejska dała wytyczne co do oceny oddziaływania w zakresie ochrony danych i może zrobić to samo w przypadku AI Act. Myślę jednak, że są tam pewne niejasności odnośnie do instytucjonalnych decyzji na poziomie państw członkowskich, np. czy państwa mają powoływać osobny organ regulujący AI, czy może powinno się to odbywać pod auspicjami urzędu odpowiedzialnego za ochronę danych. Nie jest dla mnie jasne, jak może się to rozwinąć w sytuacji, gdy oba obszary częściowo na siebie zachodzą.

Zaś co do niepokojów, to obawiam się, że wprowadzenie dużej nowej regulacji może działać odstraszająco na innowacje i biznes. Ale nie jestem pewien, czy tak właśnie będzie się działo w tym przypadku. Pozytywnym efektem może być bowiem to, że europejskie firmy (oraz firmy spoza Europy działające na europejskim rynku) będą zapewniały klientów o zgodności swoich usług z AI Act. Myślę też, że będzie to prowadzić do większej równości pomiędzy różnymi organizacjami.

Generalnie skłaniam się więc ku pozytywom i mam nadzieję, że ten rok będzie dobry dla entuzjastów AI, zaś obawy związane z odstraszającym efektem AI Act okażą się przesadzone.

 

 

*David Wright jest dyrektorem i założycielem Trilateral Research – działającej od 2004 r. firmy badawczej, która brała udział w ponad 75 projektach finansowanych ze środków unijnych. Trilateral koordynowała część z tych projektów, m.in. trwający obecnie projekt CC-DRIVER badający ludzkie oraz techniczne czynniki sprzyjające cyberprzestępczości.

Opublikował ponad 70 artykułów w czasopismach recenzowanych i był współautorem bądź wspólnie zredagował kilka książek, w tym „Privacy Impact Assessment” (Springer, 2012) i „Surveillance in Europe” (Routledge, 2015).

Ukuł pojęcie ocena etycznego oddziaływania (ethical impact assessment) i napisał pierwszy artykuł poświęcony tej tematyce. Standard ISO dotyczący oceny oddziaływania na prywatność (privacy impact assessment, ISO 29134) został oparty na jego metodologii PIA. Z kolei opracowanie European Standardisation Committee Workshop Agreement (CEN CWA) dotyczące oceny etycznego oddziaływania bazuje na jego metodologii EIA.

 

Read the English version of the interview HERE

Skip to content