Decisões judiciais recentes na Califórnia e no Novo México marcam uma mudança significativa na forma como as empresas de tecnologia são responsabilizadas pelo bem-estar dos jovens utilizadores. Os júris consideraram o Meta (antigo Facebook) e o YouTube responsáveis por contribuir conscientemente para problemas de saúde mental e expor crianças a predadores, resultando em julgamentos multimilionários. Não se trata apenas de conteúdo; trata-se do design dessas plataformas.
Um ponto de viragem na responsabilidade tecnológica
Durante anos, defensores e ex-funcionários alegaram que a Meta priorizava o lucro em detrimento da segurança. O sistema legal está agora validando essas reivindicações. Um júri da Califórnia concedeu US$ 6 milhões a uma jovem cuja depressão e ansiedade estavam ligadas ao uso compulsivo das redes sociais, concluindo que Meta e YouTube agiram com intenções maliciosas. Simultaneamente, um júri do Novo México ordenou que a Meta pagasse US$ 375 milhões por não proteger os usuários de crianças predadoras no Instagram e no Facebook, citando violações das leis de proteção ao consumidor.
Estes veredictos são importantes porque estabelecem precedentes. Até agora, as empresas tecnológicas têm operado em grande parte com impunidade, protegidas por lacunas legais e pela falta de responsabilização concreta. Os tribunais estão agora a reconhecer que as plataformas concebidas para a dependência causam danos e que as empresas são responsáveis por esses danos.
Por dentro do conhecimento do dano da Meta
Os casos baseiam-se fortemente em documentos internos da Meta, revelando uma abordagem calculada para explorar utilizadores vulneráveis. Uma análise identificou explicitamente os pré-adolescentes como o grupo demográfico mais valioso devido ao seu envolvimento a longo prazo – as crianças que ingressam cedo permanecem mais tempo. Um usuário de 13 anos foi avaliado internamente em US$ 270 em receita vitalícia de publicidade.
Até os próprios executivos da Meta reconheceram a natureza viciante das plataformas. O CEO do Instagram, Adam Mosseri, comparou a experiência a assistir à Netflix enquanto ganhava US$ 10 milhões por ano, um número vinculado a métricas de crescimento. Denunciantes como Brian Boland testemunham que os produtos foram lançados sem testes de segurança e que as preocupações foram ignoradas. Ex-funcionários dizem que foram instruídos a evitar a criação de registros detectáveis sobre a conscientização da Meta sobre os danos às crianças.
O Veredicto: Design como o Problema
As ações judiciais não são sobre postagens ou conteúdos específicos, mas sobre os loops algorítmicos que maximizam o engajamento a qualquer custo. Rolagem infinita, feeds personalizados e notificações push são projetados para manter os usuários presos, independentemente do impacto psicológico. Este design é particularmente perigoso para crianças cujos cérebros ainda estão em desenvolvimento.
Os júris consideraram a Meta negligente na concepção de plataformas que exploram esta vulnerabilidade. Eles atribuíram 70% da responsabilidade pelos danos causados a uma jovem à empresa. Esta é uma repreensão direta às afirmações públicas da Meta de que as redes sociais não causam danos, declarações feitas sob juramento perante o Congresso.
O que vem a seguir?
Esses veredictos são provavelmente apenas o começo. Milhares de ações judiciais semelhantes estão pendentes e este caso de referência influenciará os seus resultados. A Meta respondeu com “recursos de segurança” superficiais que avaliações independentes consideraram amplamente ineficazes. A abordagem da empresa reflecte tácticas corporativas do passado: criar a ilusão de mudança enquanto preserva os lucros.
O problema central permanece: os modelos de negócio das empresas tecnológicas dependem do vício, tornando impossível a auto-regulação. As decisões judiciais confirmam que a responsabilização externa é necessária. Os júris falaram; a questão agora é se os reguladores e legisladores seguirão o exemplo.
