Niedawne orzeczenia sądów w Kalifornii i Nowym Meksyku oznaczają znaczącą zmianę w sposobie, w jaki firmy technologiczne są odpowiedzialne za dobro młodych użytkowników. Ława przysięgłych uznała Meta (dawniej Facebook) i YouTube za winne świadomego zaostrzania problemów zdrowia psychicznego i narażania dzieci na niebezpieczeństwo ze strony drapieżników, co skutkowało wielomilionowymi nakazami zapłaty. Nie chodzi tylko o treść; chodzi o projekt tych platform.
Punkt zwrotny w odpowiedzialności firm technologicznych
Przez lata zwolennicy i byli pracownicy twierdzili, że Meta przedkładała zysk nad bezpieczeństwo. Obecnie wymiar sprawiedliwości potwierdza te twierdzenia. Kalifornijskie jury przyznało 6 milionów dolarów młodej kobiecie, której depresja i stany lękowe były powiązane z kompulsywnym korzystaniem z mediów społecznościowych, uznając, że Meta i YouTube działały złośliwie. W tym samym czasie jury w Nowym Meksyku nakazało Meta zapłacić 375 milionów dolarów za brak ochrony użytkowników przed pedofilami na Instagramie i Facebooku, powołując się na naruszenia przepisów dotyczących ochrony konsumentów.
Te decyzje mają znaczenie, ponieważ ustanawiają precedens. Do tej pory firmy technologiczne w dużej mierze działały bezkarnie, chronione przez luki prawne i brak konkretnej odpowiedzialności. Sądy uznają obecnie, że platformy zaprojektowane do uzależniania wyrządzają szkody i że za to odpowiedzialne są firmy.
Wiedza Meta na temat wyrządzonych szkód
W sprawach szeroko wykorzystuje się wewnętrzne dokumenty Meta, które ujawniają wykalkulowane podejście do wykorzystywania bezbronnych użytkowników. W jednej z analiz wyraźnie uznano nastolatków za najcenniejszą grupę demograficzną ze względu na ich długoterminowe zaangażowanie – dzieci, które wcześnie dołączą do platformy, pozostają na niej dłużej. Wewnętrzna wycena przychodów z reklam 13-letniego użytkownika wynosi 270 dolarów.
Nawet dyrektorzy Meta przyznali, że platformy uzależniają. Dyrektor generalny Instagrama, Adam Mosseri, porównał to doświadczenie do oglądania Netflixa przy jednoczesnym zarabianiu 10 milionów dolarów rocznie, czyli kwoty powiązanej ze wskaźnikami wzrostu. Znawcy tacy jak Brian Boland twierdzą, że produkty zostały wprowadzone na rynek bez testów bezpieczeństwa, a obawy zostały zignorowane. Byli pracownicy twierdzą, że powiedziano im, aby unikali tworzenia udokumentowanych dowodów potwierdzających wiedzę Meta na temat krzywdzenia dzieci.
Werdykt: Projekt jako problem
Pozwy nie dotyczą konkretnych postów czy treści, ale pętli algorytmicznych, które maksymalizują zaangażowanie za wszelką cenę. Nieskończone przewijanie, spersonalizowane kanały i powiadomienia push mają na celu utrzymanie zaangażowania użytkowników bez względu na wpływ psychologiczny. Ten projekt jest szczególnie niebezpieczny dla dzieci, których mózgi wciąż się rozwijają.
Sędziowie uznali Meta za winną zaniedbania w tworzeniu platform wykorzystujących tę lukę. Uznali firmę za w 70% odpowiedzialną za krzywdę wyrządzoną młodej kobiecie. Jest to bezpośrednia nagana wobec publicznych oświadczeń Meta, że media społecznościowe nie wyrządzają szkody, złożonych pod przysięgą przed Kongresem.
Co dalej?
Te decyzje to prawdopodobnie dopiero początek. Tysiące podobnych pozwów jest w toku, a ta przełomowa sprawa będzie miała wpływ na ich wynik. Meta zareagowała, wprowadzając powierzchowne „funkcje bezpieczeństwa”, które według niezależnych ocen okazały się w dużej mierze nieskuteczne. Podejście firmy nawiązuje do dawnych taktyk korporacyjnych: tworzenia iluzji zmiany przy jednoczesnym utrzymaniu zysków.
Podstawowy problem pozostaje: modele biznesowe firm technologicznych zależą od uzależnienia, co uniemożliwia samoregulację. Orzeczenia sądów potwierdzają konieczność kontroli zewnętrznej. Jury przemówiło; pytanie brzmi teraz, czy organy regulacyjne i ustawodawcy pójdą ich śladem.
