Tanio sprzedajemy wiedzę o sobie
Maciej Chojnowski: W raporcie „Digital ethics” postulujecie, by społeczna odpowiedzialność biznesu nie sprowadzała się do akcji wizerunkowych, lecz przekładała na etyczne podejście do konsumenta. Na świecie mówi się dziś o tym coraz głośniej: Capgemini uznało niedawno etyczny rozwój AI za jeden z kluczowych czynników zdobywania przewagi konkurencyjnej w gospodarce cyfrowej. W jakim stopniu polscy użytkownicy nowych technologii są świadomi, że mają prawo oczekiwać podobnego podejścia?
Dominika Kaczorowska-Spychalska*: Dziś transformacja cyfrowa to nie sam imperatyw technologiczny. Jesteśmy już na zdecydowanie wyższym poziomie. Teraz dyskusja dotyczy nie tylko efektywnego wykorzystania technologii do mapowania czy operacjonalizacji procesów, ale również tego, aby firmy uświadomiły sobie, jak duży wpływ te poszczególne rozwiązania mają na człowieka i role, jakie pełni on w biznesie czy społeczeństwie.
Odpowiedź na twoje pytanie jest jednak o tyle trudna, że sytuacja nie jest zero-jedynkowa. Z technologiami mamy co prawda coraz częstszy i intensywniejszy kontakt, mówimy o nich coraz więcej, w efekcie czego świadomość konsumentów zdecydowanie przyrasta, ale wciąż są takie obszary, w których ten poziom jest po prostu znikomy.
Z waszego raportu wyłania się dość osobliwa cecha Polaków: choć ponad 90 procent ankietowanych deklaruje, że czuje się bezpiecznie, korzystając z nowych technologii, to zarazem niemal 70 procent obawia się ich jako źródła dezinformacji i inwigilacji. Czyżbyśmy bali się tego, co ma dopiero nadejść, a to, co już jest, traktowali jako oswojone i bezpieczne?
To nie jest aż tak bardzo zaskakujące, bo na ogół niepokoją nas rzeczy, których nie jesteśmy w stanie do końca zrozumieć – o których nie wiemy, jak funkcjonują i czego można się po nich spodziewać.
Dziś popularne są media społecznościowe, rozwiązania e-commerce, komunikatory internetowe, bankowość elektroniczna czy mobilna. W tych obszarach czujemy się w miarę pewnie, bo od lat na co dzień z nich korzystamy. Mamy więc poczucie, że potrafimy zapanować nad ewentualnymi zagrożeniami i że wiemy, jak się zachować, gdyby nam się one przytrafiły.
Znacznie gorzej jest natomiast wtedy, gdy o czymś wiemy niewiele. Chodzi o technologie i rozwiązania na nich oparte, o których się co prawda mówi, które się testuje, ale które nie są jeszcze powszechne: choćby pojazdy autonomiczne. Jeszcze nie używamy ich na co dzień, więc mogą budzić nasz lęk. Jeśli nałożymy na to informacje o wypadkach z udziałem tych pojazdów, to nasz niepokój może być jeszcze większy. Ponadto w mediach dużo obecnie mówi się o utracie prywatności, inwigilacji czy dezinformacji, co sprawia, że stopniowo uświadamiamy sobie również inne potencjalne niebezpieczeństwa, które mogą być związane z takimi pojazdami.
Myślę więc, że te ambiwalentne odczucia to przejaw dualizmu technologii, które zarazem gwarantują nam korzyści, jak i pociągają za sobą wyzwania. A to oznacza, że sytuacje, w których z jednej strony czuję się bezpiecznie, a z drugiej obawiam się zagrożeń, będą się pojawiały coraz częściej.
To chyba także kwestia umiejętnego dostrzegania niebezpieczeństw. W kontekście bankowości elektronicznej większość ludzi widzi zagrożenie w ryzyku bycia zhakowanym i okradzionym. Tymczasem kryptograf Bruce Schneier ostrzega, że wycofanie gotówki z obiegu to koniec naszej anonimowości. W Polsce, gdzie innowacje płatnicze są bardzo rozwinięte, nie jest to abstrakcyjny problem. Gdy płacimy telefonem czy kartą, każda nasza transakcja zostawia ślad. Oczywiście cieszymy się, że możemy – szczególnie w czasie pandemii – płacić elektronicznie. Ale zapominamy o efektach ubocznych.
To nie dotyczy już wyłącznie bankowości, ale też mediów społecznościowych czy e-commerce. Coraz częściej mówimy chociażby o Internet of Behavior. Na początku tego roku Gartner zapowiedział, że do 2023 r. 40 procent śladów cyfrowych całej światowej populacji będzie już podlegało systemowi śledzenia! Chodzi zatem o ogromne pakiety danych, które dotyczą nas i naszych zachowań konsumenckich, które dzięki wykorzystaniu analityki i psychologii behawioralnej pozwolą firmom dowiedzieć się o nas znacznie więcej niż dotychczas.
Korzystając z technologii jako konsumenci, często patrzymy na nie przez pryzmat wygody, co może nam przesłaniać potencjalne ryzyko. Dopóki mamy jednak wewnętrzne poczucie, że to ryzyko bezpośrednio nas nie dotyczy, uważamy, że możemy o nim trochę mniej pamiętać.
W badaniach do naszego raportu zaskoczyło nas, że młodzi ludzie byli skłonni rezygnować z prawa do prywatności, byleby w zamian dostali większe korzyści. Wygoda i zyski z tym związane biorą zatem górę. Musimy sobie jednak zdać sprawę, że w takim podejściu nasze dane są swego rodzaju walutą, a my sami produktem na sprzedaż. Bo przecież przekazując dane, przekazujemy wiedzę o sobie – co lubimy, w jaki sposób spędzamy wolny czas czy jakie produkty kupujemy. Najlepiej widać to w mediach społecznościowych. Informacje, które tam umieszczamy, to doskonały sposób, żeby sprofilować całą gamę produktów. A to tylko jeden z obszarów naszej aktywności.
Spójrzmy na możliwości jakie dają nam technologie ogólnego zastosowania, jak chociażby Internet rzeczy. Wyobraźmy sobie np. że moja filiżanka jest wyposażona w mikroczip, który gromadzi o mnie szereg informacji. Ilu rzeczy można by się o mnie dowiedzieć jako konsumentce i przełożyć to na wartość z punktu widzenia biznesu! Tego typu produktów za chwilę będzie wokół nas pewnie cała masa.
Dla wielu ludzi fakt, że ktoś wie o nich coś, co wydaje się im błahe i nie dotyczy ich intymnych spraw, jest zapewne obojętny. Wątpię jednak, czy zdają sobie sprawę z możliwości korelacji danych i tego, do czego można wykorzystać informacje na pozornie banalne tematy. Dzisiaj żadne dane nie są już przecież neutralne.
To jest właśnie ten głębszy problem. Mamy świadomość, że są o nas zbierane informacje i że narzędzi do tego służących będzie coraz więcej. Natomiast większość z nas raczej nie potrafi zrozumieć, jak z tych informacji można budować całościową wiedzą o nas i w przyszłości za ich pośrednictwem wpływać np. na nasze decyzje nabywcze.
A może starsze pokolenia, które doświadczyły inwigilacji w PRL-u, są bardziej ostrożne? Kiedyś w sklepie widziałem, jak natarczywa ekspedientka pytała starszą klientkę, dlaczego nie chce założyć karty lojalnościowej. W końcu usłyszała: „Bo w życiu nie ma nic za darmo”. Wtedy żachnęła się, jakby ta starsza kobieta wygadywała bzdury. A ja pomyślałem, że ta pani intuicyjnie doskonale wiedziała, o co chodzi. Czy dostrzegacie jakieś różnice międzypokoleniowe w tym obszarze?
Najbardziej skłonne do oddawania swoich danych są pokolenia młodsze, bardzo aktywne w przestrzeni internetowej, które traktują ją jako swoje naturalne środowisko. Mniejszej aktywności seniorów w przestrzeniach związanych z technologiami nie traktowałabym jednak jako konsekwencji życia w opresyjnym PRL-u. Wydaje mi się, że to bardziej kwestia z jednej strony prywatnych doświadczeń, które każdy z nich nagromadził w trakcie swojego życia, wchodząc w interakcje z innymi ludźmi czy markami, a z drugiej poziomu wiedzy i zaawansowania technologicznego.
Wracamy do tego, o czym mówiliśmy wcześniej: gdy nie do końca wiem, jak coś działa, odczuwam pewien lęk, testuję, sprawdzam. To kwestia dociekliwości, na czym polega dana technologia, i umiejętności opisania tego własnym językiem, żeby nie było to oderwane od rzeczywiści, w której funkcjonuję. Myślę, że te elementy mają większe znaczenie niż sama kwestia wieku. Natomiast w praktyce wszystkie one się na siebie nakładają i dopiero wtedy możemy mówić o uwarunkowaniach, które powodują, że się czegoś bardziej lub mniej obawiamy.
A kogo uważamy za autorytet w obszarze technologii?
Jeżeli chodzi o autorytety moralne, to z jednej strony wskazujemy na innych ludzi, z którymi mamy kontakt i możemy wspólnie z nimi rozwiązywać problemy, ale jednocześnie jesteśmy przekonani, że sami najlepiej potrafimy rozróżnić, co jest dobre, a co złe. Tym samym nasz sposób postrzegania świata może być zgoła odmienny.
Natomiast jeśli chodzi o kwestie związane z odpowiedzialnością za technologie, to w raporcie wymieniano przede wszystkim dwie kategorie: rząd, który ma tworzyć określone ramy i dbać, żeby nasze ślady cyfrowe były gromadzone i wykorzystywane z zachowaniem określonych zasad. Drugą kategorią byliśmy znowu my sami.
O czym to świadczy?
Taki układ – rząd i my – może wynikać stąd, że jednak nie do końca ufamy rozwiązaniom legislacyjnym. I bierzemy odpowiedzialność na siebie, bo chcemy czuć się bezpiecznie. To pierwsza możliwa interpretacja, dość pesymistyczna.
Ale jest też możliwa druga: mamy wysoki poziom świadomości i wychodzimy z założenia, że nie można odpowiedzialności za to, co nas dotyczy, przerzucać na kogoś innego. Na zasadzie analogii do przepisów drogowych: rząd stworzył określone ramy prawne, ale jeśli ja nie będę odpowiedzialnie ich przestrzegać, to nie będzie też pełnej synergii. Niewykluczone, że właśnie ta optymistyczna wersja jest prawdziwa.
Mówiąc o autorytetach, wspomniałaś o wspólnocie. To ważne w kontekście zaufania: dobrze jest móc wierzyć ludziom, którzy nas otaczają. Jednak gdy mowa o odpowiedzialności, nagle wspólnota znika – zostaje tylko państwo i jednostka. A przecież bez poczucia wspólnotowości trudno mówić o praworządności i obywatelskim wymiarze działania. Tego chyba właśnie w Polsce brak i stąd mój pesymistyczny odbiór tego fragmentu raportu. Dla mnie dochodzi tam do głosu raczej niewiara w system niż odpowiedzialność.
Wolałabym pójść w kierunku tej bardziej optymistycznej interpretacji. Ale faktycznie moja pierwsza myśl jest taka, że bierzemy na siebie odpowiedzialność, bo nie wierzymy w możliwości państwa. Tylko że to jest temat do dalszych badań, tu możemy tylko domniemywać.
Cyfryzacja cały czas postępuje, a pandemia i kolejne lockdowny jeszcze ją wzmocniły. To już nie jest kwestia tego, czy technologie będą w naszym otoczeniu, tylko jak będą one na nas wpływać w różnych obszarach naszego funkcjonowania. I nie mówię tu tylko o nauce czy biznesie, ale także o relacjach interpersonalnych. Dziś coraz częściej mówi się chociażby o ekonomii samotności, która ma ogromne znaczenie w kontekście technologii.
W związku z tym o etyce technologii będzie trzeba mówić nie tylko coraz więcej, ale też głębiej i precyzyjniej. O niej trzeba uczyć, pokazując wpływ na człowieka w różnych sferach jego życia. Kiedy przygotowywaliśmy nasze badanie, zrobiliśmy szczegółowy przegląd opracowań polskich i światowych. Jest bardzo dużo publikacji, które mają w tytułach digital ethics, ale kiedy wejść w nie głębiej, często okazuje się, że brak w nich badań czy szczegółowych analiz.
Nad tym, co etyczne, zastanawiamy się od tysięcy lat. Jednak w ostatnich dekadach musimy coraz szybciej reagować na to, co tu i teraz ulega zmianie w naszym krajobrazie moralnym. Od sposobu, w jaki połączymy tradycję i współczesne wyzwania stawiane przez technologie, będzie zależał kształt przyszłego świata.
Samo posiadanie technologii to nie wszystko. Trzeba jeszcze pytać, czy dzięki niej udało się rozwiązać problemy, z którymi borykaliśmy się, zanim ona powstała. Największe wyzwanie dotyczy tego, czy potrafimy wykorzystywać technologię, żeby służyła nam wszystkim, nie naruszając niczyich praw. Nie tylko pod względem gromadzonych danych, ale także samego procesu użytkowania.
W przyszłości będziemy mówić o aspektach związanych z etyką cyfrową w coraz to innym kontekście. Być może będzie to kwestia personalizowania rzeczywistości i prywatnej, indywidualnej bańki. Kto wie? Przekonamy się niebawem.
* dr Dominika Kaczorowska-Spychalska – dyrektor Centrum Mikser Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego i adiunkt w Katedrze Marketingu. Ekspert UŁ w zakresie technologii cyfrowych i ich implikacji w biznesie. Autorka i współautorka ponad 60 publikacji opublikowanych w wydawnictwach polskich i zagranicznych. Uczestniczyła w pracach nad „Założeniami do strategii AI w Polsce” dla Ministerstwa Cyfryzacji. W 2020 roku znalazła się wśród laureatek rankingu Perspektyw Top 15 Women in 5G. Ekspert Instytutu Kościuszki. Członek Rady Programowej Centrum Etyki Technologii.