MUNDO
12 de agosto de 2025
Descubren una red de abuso infantil en la red social X

Al menos 150 cuentas compartieron "millones" de publicaciones en X durante un periodo de cuatro días en julio que animaban a los usuarios a comprar material de explotación infantil, según ha descubierto una investigación.
Investigadores europeos han descubierto lo que creen que es una red coordinada para vender y distribuir imágenes sexualmente explícitas de niños en la plataforma de redes sociales X.
La organización sin ánimo de lucro Alliance4Europe descubrió al menos 150 cuentas que compartían material sobre agresiones sexuales a menores en la plataforma durante un periodo de cuatro días en julio. El informe calcula que la red coordinada comenzó a operar en torno al 17 de mayo.
Los investigadores estiman que la red compartió "millones" de mensajes y que la "operación continuó en gran medida sin perturbaciones" en X, que dirige el multimillonario Elon Musk.
El informe llega después de que un tribunal estadounidense reviviera la semana pasada parte de una demanda contra X en la que se acusaba a la empresa de negligencia por supuestamente no informar con prontitud al Centro de Menores Desaparecidos y Explotados (NCMEC) de Estados Unidos de un vídeo con imágenes explícitas de chicos jóvenes.
En la Unión Europea, mientras tanto, se debate cuál es la mejor manera de gestionar la avalancha de contenidos de abusos a menores en línea sin dejar de respetar los derechos de privacidad digital de las personas.
Las publicaciones amplificadas llevaron a las plataformas a comprar contenidos de abusos sexuales a menores
Según el análisis, la red delictiva inundó hashtags específicos relacionados con la pornografía con contenidos de abusos a menores que luego fueron amplificados o difundidos por nuevas cuentas. Estas cuentas comentaban o reenviaban el contenido para aumentar la participación.
Los hashtags se utilizaban como "agregadores" de contenidos de abusos sexuales a menores, "lo que facilitaba el descubrimiento de otros hashtags inundados y de nuevas cuentas de CSAM", según el informe.
Algunas de las publicaciones eran extremadamente gráficas. Incluían vídeos en los que aparecían niños "agredidos sexualmente, violados o... expuestos explícitamente de cualquier otro modo", según el informe. Muchas de las publicaciones compartidas incluían enlaces a espacios de chat en línea de Telegram o Discord, sitios web de citas o sitios de venta de carpetas de contenido de abusos sexuales a menores.
Una de las páginas ampliadas enlazaba a una dirección de monedero Bitcoin activa que había acumulado 660 dólares (573 euros) en 23 transacciones, lo que, según el informe, "confirma potencialmente que la operación está llegando a personas que compran acceso al contenido".
Creación continua de nuevas cuentas
Cuando los investigadores señalaron a X dos de las publicaciones iniciales de la red, afirmaron que la plataforma empezó a eliminar contenidos con mayor rapidez. X empezó a bloquear el acceso a los contenidos a los usuarios que consideraba menores de edad. Esto dificultó, pero no detuvo, las actividades de la operación, según los investigadores.
"Se crean nuevas cuentas continuamente, lo que sugiere incluso algún tipo de automatización, proporcionando un acceso continuo a los contenidos CSAM", señala el informe. Los investigadores afirman que la estrategia de X para eliminar contenidos ilegales puede facilitar la difusión de estos mensajes y dificultar la obtención de pruebas.
Tolerancia cero con la explotación sexual infantil
'Euronews Next' se puso en contacto con X para pedirle que comentara las conclusiones de Alliance4Europe y que aclarara si la empresa había realizado algún cambio reciente en relación con los contenidos de explotación sexual infantil en su plataforma. No recibimos respuesta inmediata.
Sin embargo, en junio, el equipo de seguridad de X afirmó en un comunicado que tiene "tolerancia cero con la explotación sexual infantil en cualquiera de sus formas".La plataforma dijo que había puesto en marcha nuevos "esfuerzos de hash matching" (convierte uno o varios elementos de entrada a una función en otro elemento) de CSAM, que permitían a su equipo "emparejar contenido multimedia de forma rápida y segura" sin sacrificar la privacidad del usuario.
El hash es una técnica utilizada por un algoritmo para crear huellas dactilares de archivos en un sistema informático, y la comparación de un hash con otro almacenado en una base de datos se denomina comparación de hash.
Cuando X encuentra contenido de abusos sexuales a menores, actúa "rápidamente" para suspender la cuenta e informar al NCMEC de Estados Unidos. En 2024, X declaró haber enviado 686.176 informes al centro y suspendido 4,5 millones de cuentas relacionadas con CSAM.
Esto dio lugar a 94 detenciones y una condena, añadió la plataforma. El NCMEC confirmó estas cifras en una declaración a 'Euronews Next'. "Hemos invertido en tecnología y herramientas avanzadas para impedir que los malos actores distribuyan, busquen o participen en contenidos de explotación en todos los formatos de medios en X", dijo la empresa en junio.
Euro News
-
#Escuchá La 97.1 todo el día, hacé click acá📻
#Descarga la App de #RTuc haciendo click acá📲
-
Seguinos
+543816909015