Num movimento histórico para a regulação digital, um novo quadro legal aprovado pela União Europeia estabelece que as grandes plataformas tecnológicas terão um prazo máximo de 48 horas para remover conteúdos considerados imagens abusivas uma vez notificadas. Esta legislação, conhecida como Regulamento de Serviços Digitais (DSA, na sigla em inglês), representa um dos esforços mais ambiciosos a nível mundial para responsabilizar as empresas da internet pelo material que alojam nos seus servidores. A norma aplica-se não apenas a redes sociais como a Meta, X (antigo Twitter) ou TikTok, mas também a serviços de hospedagem de imagens, fóruns e qualquer plataforma online que permita interação pública.
O contexto desta lei surge após anos de pressão por parte de organizações de defesa dos direitos humanos, vítimas de ciberbullying e governos nacionais, que argumentavam que a autorregulação das tecnológicas tinha sido insuficiente para proteger os utilizadores, especialmente menores e grupos vulneráveis. As imagens abusivas abrangem um espectro amplo que inclui material de abuso sexual infantil, deepfakes não consentidos, fotografias íntimas partilhadas sem permissão (conhecido como 'pornografia de vingança') e conteúdos que incitam à violência ou ao ódio com base em características protegidas. Anteriormente, os tempos de resposta das plataformas variavam enormemente, desde algumas horas até semanas, deixando as vítimas expostas a danos psicológicos prolongados e à viralização do conteúdo prejudicial.
Dados relevantes publicados pela Comissão Europeia indicam que, antes da implementação do DSA, apenas 64% das notificações sobre conteúdo ilegal recebiam uma resposta das plataformas dentro de uma semana, e a taxa de remoção efetiva era inconsistente. A nova regulamentação estabelece sanções económicas que podem atingir até 6% do volume de negócios anual global da empresa infratora, uma percentagem que, para gigantes como a Alphabet ou a Meta, poderia traduzir-se em multas de milhares de milhões de euros. Além disso, a lei exige que as plataformas designem pontos de contacto locais e publiquem relatórios de transparência periódicos sobre as suas ações de moderação, proporcionando assim um maior escrutínio público sobre as suas práticas.
Declarações do Comissário Europeu para o Mercado Interno, Thierry Breton, sublinham o objetivo da norma: 'Não se trata de censura, mas de proteger a dignidade e a segurança dos nossos cidadãos no espaço digital. As plataformas desfrutaram de um 'paraíso' de impunidade durante demasiado tempo. Com esta lei, transformamos os direitos dos utilizadores numa responsabilidade executável para as empresas'. Por seu lado, grupos da indústria tecnológica, representados por lobbies como a CCIA, expressaram preocupação sobre a viabilidade operacional de prazos tão rigorosos, argumentando que poderiam levar a uma remoção excessiva de conteúdo (over-removal) por medo das multas, afetando potencialmente a liberdade de expressão.
O impacto desta legislação estender-se-á muito para além das fronteiras europeias, dado o efeito 'Bruxelas' que as regulamentações da UE costumam ter. Espera-se que empresas globais adaptem as suas políticas e sistemas de moderação a nível mundial para cumprir o padrão mais exigente, o que poderá gerar um efeito dominó noutras jurisdições. Para os utilizadores, significa um mecanismo de denúncia mais rápido e previsível, embora também levante desafios na definição precisa do que constitui 'conteúdo abusivo' e na necessidade de salvaguardas para evitar abusos no sistema de notificação. As plataformas terão de investir significativamente em tecnologia de deteção proativa, como inteligência artificial, e em equipas humanas de moderação, o que poderá alterar os seus modelos de negócio.
Em conclusão, a nova lei das 48 horas marca um ponto de viragem na governança da internet, deslocando o peso da responsabilidade do utilizador final para os intermediários digitais. Se implementada de forma eficaz e equilibrada, tem o potencial de criar um ambiente online mais seguro e de restaurar alguma confiança nas plataformas digitais. No entanto, o seu sucesso dependerá criticamente de uma supervisão regulatória robusta, da cooperação internacional e da capacidade das empresas para escalar as suas operações de moderação sem minar os direitos fundamentais. O mundo observará de perto este experimento regulatório, que provavelmente inspirará leis semelhantes nas Américas, Ásia e outras regiões nos próximos anos.




