Musk prometió quitar de Twitter las imágenes de abuso, ¿cumplió?
Musk prometió quitar de Twitter las imágenes de abuso, ¿cumplió?
Más de 120.000 reproducciones de un video que muestra la agresión sexual a un niño. Un motor de recomendación que sugiere a un usuario seguir contenidos relacionados con explotación infantil. Usuarios que publican material de abusos continuamente, retrasos a la hora de retirarlo cuando se detecta y roces con las organizaciones de vigilancia.
Todo ello después de que Elon Musk declaró que “eliminar la explotación infantil es la prioridad número uno” en un tuit a finales de noviembre.
Con Musk como propietario, la jefa de seguridad de Twitter, Ella Irwin, dijo que se actuaba con rapidez para combatir el material de abuso sexual infantil, que proliferaba en el sitio, como en la mayoría de las plataformas tecnológicas, con los anteriores propietarios. “Twitter 2.0” será diferente, prometió la empresa.
Pero un análisis de The New York Times descubrió que las imágenes, comúnmente conocidas como pornografía infantil, continuaban presentes en la plataforma, incluido material de amplia difusión que las autoridades consideran el más fácil de detectar y eliminar.
La revisión del Times muestra que, después de que Musk tomó las riendas de Twitter a finales de octubre, la empresa despidió o perdió en gran medida personal con experiencia en el problema y no logró evitar la propagación de imágenes de abusos identificadas previamente por las autoridades. Twitter también dejó de pagar un software de detección considerado clave para sus esfuerzos.
Mientras tanto, en los foros de la internet oscura se dice que Twitter sigue siendo una plataforma en la que es posible encontrar el material con facilidad y evitar ser detectados, según las transcripciones de esos foros de un grupo antiabusos que vigila dichos foros.
“Si dejas entrar a las ratas de alcantarilla”, dijo Julie Inman Grant, comisionada de seguridad en línea de Australia, “sabes que la pestilencia va a llegar”.
En una conversación de audio en Twitter con Irwin a principios de diciembre, un investigador independiente que trabajaba con la empresa afirmó que los contenidos ilegales llevaban años a disposición del público en la plataforma y acumulaban millones de vistas. Sin embargo, Irwin y otros empleados de Twitter afirmaron que los esfuerzos bajo el liderazgo de Musk estaban rindiendo frutos. Durante su primer mes como propietario, la compañía suspendió casi 300.000 cuentas por violar las políticas de “explotación sexual infantil”, un 57 por ciento más de lo habitual, según informó la empresa.
El esfuerzo se aceleró en enero, según Twitter, cuando suspendió 404.000 cuentas. “Nuestro enfoque reciente es más agresivo”, declaró la empresa en una serie de tuits el miércoles, comentando que también había tomado medidas enérgicas contra las personas que buscan el material de explotación y que había reducido las búsquedas exitosas en un 99 por ciento desde diciembre.
En una entrevista, Irwin dijo que la mayoría de las suspensiones impactaron a cuentas que se dedicaban a vender o distribuir el material, más que a las que lo publicaban. No puso en duda que el contenido de abuso sexual infantil siga estando disponible abiertamente en la plataforma y agregó que eran conscientes de que todavía se les escapaban algunas cosas que deberían ser capaces de detectar mejor.
Añadió que Twitter estaba contratando empleados y desplegando “nuevos mecanismos” para combatir el problema y aseveró que trabajaban en eso sin descanso.
Wired, NBC y otros medios han detallado los continuos problemas de Twitter con las imágenes de abusos a menores desde que Musk es dueño. El martes, el senador demócrata por Illinois Richard Durbin pidió al Departamento de Justicia que revisara todo lo que ha hecho Twitter para abordar el problema.
A fin de evaluar los avances de la empresa, el Times creó una cuenta individual de Twitter y escribió un programa informático automatizado que buscaba el contenido en la plataforma sin mostrar las imágenes, cuya visualización es ilegal. No fue difícil encontrar el material. De hecho, Twitter ayudó a promocionarlo a través de su algoritmo de recomendación, una función que sugiere cuentas a seguir a partir de la actividad del usuario.
Entre las recomendaciones figuraba una cuenta que presentaba una foto de perfil de un chico con el pecho descubierto. El niño en la fotografía es una conocida víctima de abuso sexual, según el Centro Canadiense para la Protección de Menores, que ayudó al Times a identificar el material de explotación en la plataforma al compararlo con la base de datos de imágenes previamente identificadas.
El mismo usuario seguía a otras cuentas sospechosas, incluida una que le había dado me gusta a un video de niños que violentaban sexualmente a otro. Para el 19 de enero, el video, que había estado en Twitter durante más de un mes, tenía más de 122.000 vistas, casi 300 retuits y más de 2600 me gusta. Twitter eliminó el video después de que el centro canadiense se lo hizo notar a la empresa.
En las primeras horas de la búsqueda, el programa de cómputo encontró varias imágenes que ya habían sido identificadas como de abuso, así como cuentas que ofrecían más imágenes a la venta. El Times marcó las publicaciones sin visualizar las imágenes y envió las direcciones de internet a servicios a cargo de Microsoft y del centro canadiense.
A fines de diciembre, una cuenta ofrecía un “paquete navideño” de fotos y videos con descuento. Ese usuario tuiteaba una imagen parcialmente oscurecida de un niño que había sufrido abusos desde los 8 años hasta la adolescencia. Twitter eliminó la publicación cinco días más tarde, pero solo después de que el centro canadiense enviara reportes en varias ocasiones.
En total, el programa informático encontró imágenes de 10 víctimas que aparecían más de 150 veces en varias cuentas, la más reciente el jueves. Los tuits que las acompañaban a menudo anunciaban videos de violaciones de menores e incluían enlaces a plataformas encriptadas.
Alex Stamos, director del Observatorio de Internet de la Universidad de Stanford y ex alto ejecutivo de seguridad de Facebook, consideró alarmantes los resultados. “Teniendo en cuenta la atención que Musk ha prestado a la seguridad infantil, es sorprendente que no estén haciendo lo básico”, afirmó.
Por otra parte, para confirmar los hallazgos del Times, el centro canadiense realizó una prueba separada para determinar la frecuencia con la que aparecía una serie de videos con víctimas conocidas en Twitter. Los analistas encontraron 31 videos distintos compartidos por más de 40 cuentas, algunos de los cuales fueron retuiteados y recibieron miles de me gusta. Los videos mostraban a un joven adolescente que había sido extorsionado en línea para participar en actos sexuales con un niño preadolescente durante varios meses.
El centro también realizó una búsqueda más extensa entre los videos más explícitos de su base de datos. Hubo más de 260 coincidencias, con más de 174.000 me gusta y 63.000 retuits.
“El volumen que podemos encontrar con un mínimo esfuerzo es bastante considerable”, afirmó Lloyd Richardson, director de tecnología del centro canadiense. “No debería ser tarea de personas externas encontrar este tipo de contenidos en su sistema”.
En 2019, el Times reportó que muchas empresas tecnológicas tenían graves lagunas en la vigilancia de la explotación infantil en sus plataformas. El pasado diciembre, Inman Grant, la funcionaria australiana de seguridad en internet, realizó una auditoría que encontró que muchos de los mismos problemas seguían existiendo en una muestra de compañías tecnológicas.
La revisión australiana no incluyó a Twitter, pero algunas de las dificultades de la plataforma son similares a las de otras empresas tecnológicas y son previas a la llegada de Musk, según varios empleados actuales y antiguos.
Twitter, fundada en 2006, empezó a utilizar una herramienta más completa para buscar videos de abusos sexuales a menores el pasado otoño, según explicaron, y el equipo de ingenieros dedicado a encontrar fotos y videos ilegales se formó apenas 10 meses antes. Además, los equipos de confianza y seguridad de la empresa han estado siempre escasos de personal, aunque la empresa siguió ampliándolos incluso en medio de una amplia congelación de nuevas contrataciones que comenzó el pasado mes de abril, dijeron cuatro antiguos empleados.
A lo largo de los años, la empresa ha creado herramientas internas para encontrar y eliminar algunas imágenes, y el centro nacional ha elogiado a menudo a la empresa por la minuciosidad de sus informes.
En los últimos meses, la plataforma también ha experimentado problemas con su sistema de denuncia de abusos, que permite a los usuarios notificar a la empresa cuando encuentran material de explotación infantil. (Twitter ofrece una guía para denunciar contenidos abusivos en su plataforma).
El Times utilizó su cuenta de investigación para denunciar múltiples perfiles que decían vender o comerciar con el contenido en diciembre y enero. Muchas de las cuentas seguían activas e incluso aparecían como recomendaciones a seguir en la propia cuenta creada por el Times. La empresa dijo que necesitaría más tiempo para desentrañar por qué aparecían esas recomendaciones.
Para encontrar el material, Twitter utiliza software creado por una organización que combate el tráfico de personas llamada Thorn. Según personas familiarizadas con la relación, Twitter no le ha pagado a la organización desde que Musk asumió control, se cree que esto se debe a su esfuerzo generalizado por recortar gastos. Twitter también dejó de colaborar con Thorn para mejorar la tecnología. La colaboración era benéfica para toda la industria porque otras empresas usan el mismo software.
Irwin declinó comentar sobre las relaciones comerciales de Twitter con proveedores específicos.
La relación de Twitter con el Centro Nacional para Niños Desaparecidos y Explotados también se ha visto afectada, según las personas que trabajan ahí.
John Shehan, un ejecutivo del centro, comentó que le preocupaba el “alto nivel de rotación” en Twitter y cuál es la postura de la empresa en materia de “confianza y seguridad y su compromiso con la identificación y eliminación de material de abuso sexual infantil de su plataforma”.
Tras la transición a manos de Musk, Twitter reaccionó en un primer momento con mayor lentitud a las notificaciones del centro sobre contenido de abuso sexual, según datos del centro, un retraso de gran importancia para los sobrevivientes de abusos, que son revictimizados con cada nueva publicación. Twitter, como otras plataformas, mantiene una relación bidireccional con el centro. El sitio notifica al centro (que a su vez puede notificar a las autoridades) cuando tiene conocimiento de contenidos ilegales. Y cuando el centro se entera de un contenido ilegal en Twitter, alerta al sitio para que las imágenes y las cuentas puedan ser eliminadas.
A finales del año pasado, el tiempo de respuesta de la empresa fue de más del doble del que había sido durante el mismo periodo un año antes con los propietarios anteriores, aun cuando el centro enviaba menos alertas. En diciembre de 2021, Twitter tardó un promedio de 1,6 días en responder a 98 reportes; el pasado diciembre, después de la llegada de Musk, tardó 3,5 días en responder a 55 reportes. En enero, mejoró bastante: tardó 1,3 días en responder a 82 reportes.
El centro canadiense, que cumple la misma función en ese país, dijo que había visto retrasos de hasta una semana. En un caso, el centro canadiense detectó el 6 de enero un video que mostraba abusos a una niña desnuda, de entre 8 y 10 años. La organización dijo que envió avisos diarios durante casi una semana antes de que Twitter retirara el video.
Además, Twitter y el centro nacional estadounidense parecen discrepar sobre la obligación de Twitter de denunciar las cuentas que afirman vender material ilegal sin publicarlo directamente.
La compañía no ha informado al centro nacional de los cientos de miles de cuentas que ha suspendido porque las normas exigen que “tengan un alto grado de confianza en que la persona está transmitiendo a sabiendas” las imágenes ilegales y esas cuentas no cumplían ese umbral, dijo Irwin.
Shehan, del centro nacional de EE. UU., rebatió esa interpretación de las normas, al señalar que las empresas tecnológicas también están obligadas legalmente a denunciar a los usuarios aunque solo afirmen vender o solicitar el material. Hasta la fecha, según los datos del centro nacional, Twitter ha realizado unas 8000 denuncias mensuales, una pequeña fracción de las cuentas que ha suspendido.
Inman Grant, la reguladora australiana, dijo que no había podido comunicarse con los representantes locales de la empresa porque los contactos de su agencia en Australia habían renunciado o habían sido despedidos desde que Musk se hizo cargo de la empresa. Teme que la reducción de personal provoque más tráfico de imágenes de explotación.
“Estos contactos locales desempeñan un papel vital a la hora de abordar asuntos urgentes”, dijo Inman Grant, quien anteriormente fue ejecutiva de seguridad tanto en Twitter como en Microsoft.
Irwin dijo que la empresa seguía en contacto con la agencia australiana y, en términos más generales, expresó su confianza en que Twitter estaba “mejorando mucho”, aunque reconoció los retos que tiene por delante.
“En ningún caso nos estamos dando palmaditas en la espalda ni decimos: ‘Caray, tenemos todo bajo control’”, afirmó Irwin.
Los delincuentes siguen intercambiando consejos en foros de la internet oscura para encontrar el material en Twitter, según los mensajes encontrados por el centro canadiense.
El 12 de enero, un usuario contó que seguía cientos de cuentas “legítimas” de Twitter que vendían videos de jóvenes que fueron engañados para que enviaran grabaciones explícitas de sí mismos. Otro usuario describió Twitter como un lugar fácil para ver videos de abusos sexuales de todo tipo. “La gente comparte tanto”, escribió el usuario.
Ryan Mac y Chang Che colaboraron con la reportería.
Michael H. Keller es reportero del equipo de investigación con experiencia en periodismo de computación. Su trabajo anterior ha examinado el impacto de la tecnología en la sociedad y las deficiencias del sistema de justicia penal. Formó parte del equipo que ganó el Premio Pulitzer en la categoría de periodismo nacional en 2021 por su cobertura de la actividad policial en Estados Unidos. @mhkeller
Kate Conger es reportera de tecnología en el buró de San Francisco, donde cubre Twitter. @kateconger