Tecnología4 min de lectura

Nueva ley obliga a tecnológicas a eliminar imágenes abusivas en 48 horas

Redactado por ReData19 de febrero de 2026
Nueva ley obliga a tecnológicas a eliminar imágenes abusivas en 48 horas

En un movimiento histórico para la regulación digital, un nuevo marco legal aprobado en la Unión Europea establece que las grandes plataformas tecnológicas tendrán un plazo máximo de 48 horas para retirar contenidos considerados como imágenes abusivas una vez que hayan sido notificadas. Esta legislación, conocida como el Reglamento de Servicios Digitales (DSA, por sus siglas en inglés), representa uno de los esfuerzos más ambiciosos a nivel mundial para responsabilizar a las empresas de internet por el material que albergan en sus servidores. La norma no solo se aplica a redes sociales como Meta, X (antes Twitter) o TikTok, sino también a servicios de alojamiento de imágenes, foros y cualquier plataforma en línea que permita la interacción pública.

El contexto de esta ley surge tras años de presión por parte de organizaciones de defensa de los derechos humanos, víctimas de ciberacoso y gobiernos nacionales, quienes argumentaban que la autorregulación de las tecnológicas había sido insuficiente para proteger a los usuarios, especialmente a menores y grupos vulnerables. Las imágenes abusivas abarcan un espectro amplio que incluye material de abuso sexual infantil, deepfakes no consentidos, fotografías íntimas compartidas sin permiso (conocido como 'pornografía de venganza') y contenidos que incitan a la violencia o al odio basado en características protegidas. Anteriormente, los tiempos de respuesta de las plataformas variaban enormemente, desde unas horas hasta semanas, dejando a las víctimas expuestas a un daño psicológico prolongado y a la viralización del contenido perjudicial.

Datos relevantes publicados por la Comisión Europea indican que, antes de la implementación del DSA, solo el 64% de las notificaciones sobre contenido ilegal recibían una respuesta de las plataformas dentro de la semana, y la tasa de eliminación efectiva era inconsistente. La nueva regulación establece sanciones económicas que pueden alcanzar hasta el 6% del volumen de negocios anual mundial de la empresa infractora, un porcentaje que, para gigantes como Alphabet o Meta, podría traducirse en multas de miles de millones de euros. Además, la ley exige a las plataformas designar puntos de contacto locales y publicar informes de transparencia periódicos sobre sus acciones de moderación, proporcionando así un mayor escrutinio público sobre sus prácticas.

Declaraciones de la Comisaria Europea de Mercado Interior, Thierry Breton, subrayan el objetivo de la normativa: 'No se trata de censura, sino de proteger la dignidad y la seguridad de nuestros ciudadanos en el espacio digital. Las plataformas han disfrutado de un 'paraíso' de impunidad durante demasiado tiempo. Con esta ley, convertimos los derechos de los usuarios en una responsabilidad ejecutable para las empresas'. Por su parte, grupos de la industria tecnológica, representados por lobbies como CCIA, han expresado preocupación sobre la viabilidad operativa de plazos tan estrictos, argumentando que podrían llevar a una eliminación excesiva de contenido (over-removal) por temor a las multas, afectando potencialmente la libertad de expresión.

El impacto de esta legislación se extenderá mucho más allá de las fronteras europeas, dado el efecto 'Brussels' que suelen tener las regulaciones de la UE. Se espera que empresas globales adapten sus políticas y sistemas de moderación a nivel mundial para cumplir con el estándar más exigente, lo que podría generar un efecto dominó en otras jurisdicciones. Para los usuarios, significa un mecanismo de denuncia más rápido y predecible, aunque también plantea desafíos en la definición precisa de qué constituye 'contenido abusivo' y en la necesidad de salvaguardias para evitar abusos en el sistema de notificaciones. Las plataformas deberán invertir significativamente en tecnología de detección proactiva, como inteligencia artificial, y en equipos humanos de moderación, lo que podría alterar sus modelos de negocio.

En conclusión, la nueva ley de 48 horas marca un punto de inflexión en la gobernanza de internet, desplazando el peso de la responsabilidad desde el usuario final hacia los intermediarios digitales. Si se implementa de manera efectiva y equilibrada, tiene el potencial de crear un entorno en línea más seguro y de restaurar cierta confianza en las plataformas digitales. Sin embargo, su éxito dependerá críticamente de una supervisión regulatoria robusta, de la cooperación internacional y de la capacidad de las empresas para escalar sus operaciones de moderación sin socavar los derechos fundamentales. El mundo observará de cerca este experimento regulatorio, que probablemente inspire leyes similares en América, Asia y otras regiones en los próximos años.

Regulación DigitalUnión EuropeaSeguridad OnlineTecnologíaModeración de ContenidoDerechos Digitales

Read in other languages