Logo Sektor 3.0
BLOG

Odpowiedzialność społeczna dominujących platform cyfrowych. Czego powinniśmy oczekiwać?

Spis treści

Większość platform cyfrowych wyszła z pandemii zwycięsko. Mimo to znajdują się one pod presją ze strony organów regulacyjnych po obu stronach Atlantyku. Fundamentalne pytanie dotyczy tego, czy i jak takie przedsiębiorstwa powinny być pociągane do odpowiedzialności za to, co dzieje się na ich stronach internetowych.

Wiosną 2020 roku, jak miliony innych ludzi, zastanawialiśmy się nad tym, jak poradzić sobie z tygodniami lockdownu. Nasze doświadczenia z pewnością byłyby zupełnie inne i na wiele sposobów zdecydowanie trudniejsze, gdyby Internet nie istniał. Platformy takie jak Netflix oferowały nam rozrywkę, podczas gdy Facetime umożliwiał nam prowadzenie wideorozmów z naszymi bliskimi. Inne platformy umożliwiały wielu z nas pracować z domu albo pomogły zapewnić nasze bezpieczeństwo dzięki opcji śledzenia.

Pomimo wielu korzyści, jakie te platformy cyfrowe wnoszą w nasze życie, mogą one również mieć negatywny wpływ, w szczególności na nasze zdrowie psychiczne. Trudno to zignorować, kiedy na całym świecie z portali społecznościowych korzysta 3,2 miliarda ludzi, a przeciętny użytkownik spędził na nich prawie dwie i pół godziny dziennie w 2020 roku.

W wyniku tego ponownie rozgorzała debata o tym, w jaki sposób skutecznie uregulować „Big Tech”. Inicjatywy regulacyjne, które zostały spowolnione przez wybuch pandemii, ponownie nabierają rozpędu zarówno w Europie, jak i w Stanach Zjednoczonych. 

Platformowy model biznesowy i uzależniający charakter

Ważnym aspektem jest odpowiedzialność platform, zarówno z perspektywy prawnej, jak i z perspektywy społecznej. W kontekście świata po COVID-19 jest to szczególnie istotne, ponieważ różne lockdowny i ograniczenia z ubiegłych lat spowodowały wydłużenie czasu spędzanego przez wielu w Internecie. Dane OFCOM pokazują, że w kwietniu 2020 roku – w szczycie pierwszego lockdownu – dorośli Brytyjczycy spędzali ponad cztery godziny w Internecie, a korzystanie z cyfrowych platform wystrzeliło (o prawie 2000% w przypadku Zoom).

Czas spędzony w sieci przez Brytyjczyków

Źródło: OFCOM

Po pierwsze, platformy działają w obecności „efektów sieci”, przy czym wartość odnoszona z korzystania z usługi wzrasta, kiedy inni użytkownicy do niej dołączają. Na tych rynkach przyciągnięcie i utrzymanie użytkowników ma pierwszorzędne znaczenie. Ich obecność stanowi ważną barierę wejścia dla nowych (i być może bardziej innowacyjnych) platform, ponieważ ludzie będą niechętnie przenosić się na nową platformę, jeśli ich wszyscy znajomi i rodzina korzystają z platformy istniejącej.

Po drugie, rozpowszechnione stosowanie modelu biznesowego opartego na reklamie może zapewnić przewrotne zachęty. Platformy muszą utrzymać „zajętość” użytkowników w Internecie na tyle, na ile to możliwe, angażować ich swoimi treściami, pozyskiwać informacje o ich wrażeniach i zwiększać „współczynnik klikalności” banerów reklamowych. 

Mechanizm ten zbadano w wielu badaniach, w których podkreślono, w jaki sposób platformy mogą priorytetowo traktować utrzymywanie uwagi użytkownik zamiast jakości usługi, którą świadczą, a także sposób, w jaki konkurują ze sobą o uwagę (Ichihashi i Kim, 2021; Wu, 2016; oraz Prat i Valletti, 2021).

Biorąc pod uwagę ograniczoną uwagę użytkowników, przykładem na to, w jaki sposób platformy utrzymują ich zajętość, może być eksponowanie na stronach z aktualnościami chwytliwych filmów lub artykułów będących przynętą do kliknięcia zamiast felietonów poświęconych bieżących wydarzeniom. Te pierwsze z większym prawdopodobieństwem rozprzestrzenią się po Internecie.

Platformy mogą także wybrać „uzależniający charakter” usługi.  Taka bardziej uzależniająca platforma nie jest tak dobra dla użytkowników pod kątem jakości, ale jest w stanie przyciągnąć ich uwagę. W tym kontekście większa konkurencja może zaszkodzić konsumentom, ponieważ uzależniający charakter może zastępować jakość. 

Jest to niezwykle palący problem ze względu na połączenie pomiędzy korzystaniem z platform społecznościowych a pogorszeniem się zdrowia psychicznego, w szczególności wśród nastolatków. Badanie przeprowadzone przez Royal Society for Public Health wykazuje, że korzystanie z platform takich jak Instagram, Facebook, Snapchat czy Twitter zwiększa poczucie samotności, niepokoju, depresję i słabe postrzeganie własnego ciała wśród osób w przedziale wiekowym 14-24 lat.

Analiza pokazuje, że ograniczanie korzystania z platform przez konsumentów może ograniczyć uzależniający charakter i poprawić doświadczenia użytkowników (Ichihashi i Kim, 2021). W tym kontekście niektóre platformy mogą dokonywać autoregulacji, dając użytkownikom możliwość ograniczenia użytkowania. Przykładami tego są ograniczenia czasowe na Facebooku i Instagramie, funkcja czasu przed ekranem na iPhonach, a także Google Digital Wellbeing na telefonach z Androidem (Abrardi i in., 2021).

Chociaż może się to wydawać krokiem w dobrym kierunku i przejawem tego, że platformy w końcu biorą na siebie odpowiedzialność, takie dobrowolne ograniczenia mogą w rzeczywistości zmuszać użytkowników do wyrażenia zgody na ujawnienie większej ilości danych bez przewidywania konsekwencji w przyszłości.

Kolejne badania sugerują, że autoregulacja nie wystarcza, by zwalczyć uzależnienie od platformy (Scott-Morton i in., 2020). Neurobiolodzy ustalili, że połączenia nerwowe powiązane z uzależnieniem od substancji takich jak tytoń i alkohol są podobne do tych powiązanych z uzależnieniami behawioralnymi, w tym hazardu i korzystania z mediów społecznościowych.

Platformy optymalizują bodźce afektywne, aby uzyskać wyższy poziom zaangażowania. W konsekwencji schematy zachowań u osób, które sprawdzają media społecznościowe z coraz większą regularnością – dla „polubień” i innych form interakcji – są bardzo podobne do tych obserwowanych u osób cierpiących na inne formy uzależnienia. Podkreśla to konieczność uregulowania, ponieważ inne branże, w których istnieje zagrożenie uzależnieniem się, jak na przykład branża tytoniowa i hazardowa, są od dawna regulowane.

Uregulowanie jest również pożądane w świetle „asymetrii informacji”, terminu ekonomicznego opisującego sytuację, w której jedna strona posiada więcej lub lepsze informacje, niż druga strona. W tym przypadku dostęp platform społecznościowych do nieograniczonych ilości danych poszczególnych użytkowników wręcz wzywa do uregulowania.

Należy ponownie podkreślić, że istnieją przykłady, w tym ograniczenia wiekowe, ochrona przez pośredników (takich jak lekarz), ograniczenia dotyczące czasu i miejsca, ujawnianie ryzyka i limity reklam. Prawdopodobne jest to, że społeczeństwo będzie potrzebowało nowych pomysłów, jak również obecnych metod do stworzenia regulacji, które sprawią, że media społecznościowe będą bezpieczne dla każdego. Mówiąc jednak bardziej ogólnie, autoregulacja platform może być tylko próbą kierowania nieuniknionymi formami uregulowania przez decydentów, a także wywierania wpływu na trwające dyskusje.

Odpowiedzialność platform: debata ekonomiczna i prawna

Podczas gdy znaczna część debaty na temat uzależniających platform jak do tej pory dotyczy ich odpowiedzialności społecznej, debata regulacyjna po obu stronach Atlantyku skupia się na odpowiedzialności prawnej za to, co dzieje się na ich stronach internetowych. Szczególną uwagę poświęcono kwestiom bezpieczeństwa w Internecie, nielegalnym treściom i nieodpowiedniemu zachowaniu, a także temu, w jaki sposób zapewnić, że platformy mają motywację do podjęcia bardziej proaktywnej roli w tych kwestiach.

W Stanach Zjednoczonych platformy, w przeciwieństwie do wydawców, są chronieni sekcją 230 ustawy o przyzwoitości w komunikacji (Communications Decency Act), która przewiduje zwolnienie od odpowiedzialności dla dostawców i użytkowników „interaktywnego serwisu komputerowego”, który publikuje treści zewnętrzne.

Na przykład w 2019 roku uznano, że Facebook nie ponosi odpowiedzialności za kilka ataków przemocy, które zostały zorganizowane z kont powiązanych z grupą terrorystyczną Hamas (Force v. Facebook, Inc., 934 F.3d 53 (2d Cir. 2019)). W tym przypadku Sąd Okręgowy Stanów Zjednoczonych dla Południowego Dystryktu Nowego Jorku przyznał Facebookowi immunitet, ponieważ ten sam nie stworzył treści Hamasu, a po prostu pracował jako „interaktywny serwis komputerowy”.

Ze względu na to, że pośrednicy internetowi mogą potencjalnie posiadać instrumenty pozwalające zatrzymać nieodpowiednie zachowanie w Internecie i zapobiegać szkodom – na przykład dzięki rozwojowi technologii – powszechnie uznaje się, że taki immunitet powinien podlegać pewnym ograniczeniom.

Na przykład w ważnej decyzji podjętej przez amerykańskie sądy postanowiono, że spółka dominująca platformy Snapchat może zostać pozwana z powodu pewnej funkcji aplikacji – „speed filter” – która rzekomo zachęcała do nierozważnego kierowania pojazdem. Rodzice nastolatków, którzy zostali zabici w wypadku samochodowym twierdzili, że młodzi ludzie uwierzyli – oraz że Snap wiedział o tym, że uwierzyli – w to, że będą mieli sekretne osiągnięcie za rozpędzenie się do prędkości 100 mil na godzinę. Sąd doszedł do wniosku, iż Snapchat nie był chroniony sekcją 230, ale że firma „niezaprzeczalnie zaprojektowała” system nagród i „speed filter”, które rzekomo spowodowały, że produkt był wadliwy i zachęcał do niebezpiecznego zachowania.

Był to pierwszy, ale jeszcze nie ostatni krok w kierunku głównej odpowiedzialności za pośredników internetowych. W innym przykładzie w styczniu 2021 roku włoski urząd ochrony danych nakazał aplikacji do udostępniania filmów TikTok zablokować konta użytkowników, których wiek nie został potwierdzony. Decyzja pojawiła się po śmierci 10-letniej dziewczynki na Sycylii, która zmarła z powodu uduszenia podczas uczestniczenia w „blackout challenge” pokazywanego przez aplikację.

Mówiąc bardziej ogólnie, wielu zauważa, że platformy stale angażują się w tworzenie swoich treści i „wyglądu sekcji aktualności” z myślą o optymalizacji przychodów. Pytanie zatem dotyczy tego, w jaki sposób zapewnić, że ich twórczość jest zgodna z tym, co jest społecznie pożądane.

Jednocześnie należy zaznaczyć, że prześwietlanie i monitorowanie treści generowanych przez użytkowników (jak również identyfikowanie nielegalnych produktów i podróbek na platformach handlu internetowego) może nie być łatwym zadaniem. Moderowanie treści jest działaniem kosztownym i nieidealnym, wiążącym się z błędami, a w przypadku treści będących na pograniczu, potencjalnie wchodzącym w konflikt z wolnością słowa (Buiten i in., 2020).

Komisja Europejska podjęła formalne kroki i zaproponowała akt o usługach cyfrowych (DSA), który jest obecnie przedmiotem dyskusji w Parlamencie Europejskim. Propozycja DSA podtrzymuje obecną zasadę zwolnienia z odpowiedzialności. Ten system odpowiedzialności wywodzi się z dyrektywy o handlu elektronicznym z 2020 roku, ale w przeciwieństwie do Stanów Zjednoczonych, pośrednicy internetowi mogą odnosić korzyści ze zwolnienia, jeśli zostaną uznani za „biernych” i nieświadomych nielegalnych zachowań na platformie.

Dzięki nowym przepisom zapewniona zostanie większa przejrzystość, użytkownicy będą mieli możliwość zakwestionowania decyzji platformy dotyczących moderowania treści, a bardzo duzi pośrednicy internetowi będą mieli dodatkowe obowiązki i zostaną objęci koniecznością zapewnienia systemowej oceny ryzyka. Takie duże platformy zazwyczaj mają szeroką bazę użytkowników w państwach członkowskich, która w świetle ich ważnej roli pośredników, może być szkodliwa dla społeczeństwa.

DSA ma również na celu zwiększenie przejrzystości poprzez nałożenie na platformy nowych obowiązków ujawniania wobec organów regulacyjnych informacji. Mają informować o tym:

  • jak działają ich algorytmy,
  • jak podejmowane są decyzje o usuwaniu treści i o sposobach,
  • w jakie reklamodawcy kierują treści do użytkowników.

Co ważne, odpowiedzialność jest większa zarówno za treści, które krążą w Internecie (na przykład niebezpieczne lub szykanujące filmy i posty, a także fałszywe informacje), jak również za produkty sprzedawane na platformach handlowych (takie jak podróbki oraz nielegalne lub niebezpieczne produkty). Takie produkty stanowią całkiem spory problem dla właścicieli marek, który został niedawno rozpoznany przez OECD.

Nałożenie odpowiedzialności na platformy nie jest pozbawione problemów, ponieważ zmiana motywacji platform może ostatecznie obrócić się przeciwko regulatorom, prowadząc do niezamierzonych skutków. Na przykład pośrednicy internetowi mogą zareagować na dodatkowe obowiązki dotyczące moderowania treści i usunięcia nielegalnych produktów, przerzucając takie dodatkowe koszty na użytkowników biznesowych – poprzez wyższe prowizje – lub na użytkowników indywidualnych – na przykład w postaci wyższych kosztów ochrony prywatności/gromadzenia danych (Lefouili i Madio, 2021).

Ponadto platformy przyjmujące „hybrydową/podwójną” rolę i konkurujące ze stronami trzecimi mogą stać się bardziej aktywne w swoim ekosystemie, zwiększając liczbę produktów, które sprzedają bezpośrednio. Na platformy takie jak Amazon, Apple i Google działają w systemie dualnym, ponieważ prowadzą platformy handlowe, na których również sprzedają swoje własne produkty.

To, czy taka aktywna rola platform jest społecznie pożądana, nie jest jednoznaczne.

Przeczytaj także:

 


Oryginalny tekst pochodzi z The Economics Observatory (ECO) i został przetłumaczony z języka angielskiego. Oryginał dostępny na zasadach licencji Creative Commons Uznanie Autorstwa (CC BY) 4.0 wersja międzynarodowa.

UDOSTĘPNIJ
Facebook
Twitter
LinkedIn
Email
Druk
Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
AUTOR WPISU
  • Edukacja i praca
  • Komunikacja i marketing
  • Edukacja i praca
  • Sektor 3.0
  • Edukacja i praca
  • Edukacja i praca
NEWSLETTER
NEWSLETTER