Nuevo Informe: Aumento del Contenido de Abuso Sexual Infantil y Riesgos en Línea para los Niños


Ciertos riesgos en línea para los niños están en aumento, según un informe reciente de Thorn, una organización sin fines de lucro de tecnología cuya misión es construir tecnología para proteger a los niños del abuso sexual. La investigación compartida en el informe Tendencias Emergentes en Abuso Sexual Infantil en Línea 2023 indica que los menores están tomando y compartiendo cada vez más imágenes sexuales de sí mismos. Esta actividad puede ocurrir de manera consensuada o coercitiva, ya que los jóvenes también informan un aumento en las interacciones en línea arriesgadas con adultos.

"En nuestro mundo digitalmente conectado, el material de abuso sexual infantil se comparte fácil y cada vez más en las plataformas que usamos en nuestra vida diaria", dijo John Starr, VP de Impacto Estratégico en Thorn. "Las interacciones dañinas entre jóvenes y adultos no se limitan a los rincones oscuros de la web. Tan rápido como la comunidad digital crea plataformas innovadoras, los depredadores están aprovechando estos espacios para explotar a los niños y compartir este contenido atroz".

Estas tendencias y otras compartidas en el informe de Tendencias Emergentes en Línea se alinean con lo que otras organizaciones de seguridad infantil informan. El CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, de sus siglas en inglés: "National Center for Missing and Exploited Children") ha visto un aumento del 329% en los archivos de material de abuso sexual infantil (CSAM, de sus siglas en inglés: "child sexual abuse material") informados en los últimos cinco años. Solo en 2022, el NCMEC recibió más de 88,3 millones de archivos de CSAM.

Varios factores pueden estar contribuyendo al aumento en los informes:
  1. Más plataformas están implementando herramientas, como el producto Safer de Thorn, para detectar CSAM conocido mediante el uso de hash y coincidencias.
  2. Los depredadores en línea son más audaces y utilizan tecnologías novedosas, como chatbots, para ampliar su seducción. De 2021 a 2022, el NCMEC vio un aumento del 82% en los informes de seducción en línea de niños para actos sexuales.
  3. El CSAM auto-generado (SG-CSAM) está en aumento. Solo de 2021 a 2022, la Internet Watch Foundation señaló un aumento del 9% en el SG-CSAM.
Este contenido es un riesgo potencial para todas las plataformas que alojan contenido generado por el usuario, ya sea una foto de perfil o un amplio espacio de almacenamiento en la nube.

Solo la tecnología puede abordar la magnitud de este problema

La creación de hash y coincidencias es una de las piezas más importantes de la tecnología que las empresas de tecnología pueden utilizar para ayudar a mantener a los usuarios y las plataformas protegidos de los riesgos de alojar este contenido, al mismo tiempo que contribuyen a interrumpir la propagación viral de CSAM y los ciclos de revictimización.

Millones de archivos de CSAM se comparten en línea cada año. Una gran parte de estos archivos son de CSAM previamente informado y verificado. Dado que el contenido es conocido y ha sido previamente agregado a una lista de hash de una ONG, se puede detectar mediante la creación de hash y coincidencias.

¿Qué es la creación de hash y coincidencias?

En pocas palabras, la creación de hash y coincidencias es una forma programática de detectar CSAM y interrumpir su propagación en línea. Se utilizan comúnmente dos tipos de creación de hash: creación de hash perceptual y criptográfica. Ambas tecnologías convierten un archivo en una cadena única de números llamada valor de hash. Es como una huella digital digital para cada contenido.

Para detectar el CSAM, el contenido se somete a una creación de hash y los valores de hash resultantes se comparan con listas de hash de CSAM conocido. Esta metodología permite a las empresas de tecnología identificar, bloquear o eliminar este contenido ilícito de sus plataformas.

Ampliación del corpus de CSAM conocido

La creación de hash y coincidencias es la base de la detección de CSAM. Dado que se basa en la coincidencia con listas de hash de contenido previamente informado y verificado, la cantidad de valores de hash de CSAM conocidos en la base de datos con la que una empresa hace coincidir es fundamental.

Safer, una herramienta para la detección proactiva de CSAM desarrollada por Thorn, ofrece acceso a una gran base de datos que agrupa más de 29 millones de valores de hash de CSAM conocidos. Safer también permite a las empresas de tecnología compartir listas de hash entre sí (ya sea nombradas o de forma anónima), ampliando aún más el corpus de CSAM conocido, lo que ayuda a interrumpir su propagación viral.

Eliminar el CSAM de Internet

Para eliminar el CSAM de Internet, las empresas de tecnología y las ONG tienen un papel que desempeñar. "Las plataformas de alojamiento de contenido son socios clave, y Thorn se compromete a empoderar a la industria tecnológica con herramientas y recursos para combatir el abuso sexual infantil a gran escala", agregó Starr. "Se trata de proteger a nuestros hijos. También se trata de ayudar a las plataformas tecnológicas a proteger a sus usuarios y a sí mismas de los riesgos de alojar este contenido. Con las herramientas adecuadas, Internet puede ser más seguro."

En 2022, Safer creó hash de más de 42,1 mil millones de imágenes y videos para sus clientes. Esto resultó en la detección de 520,000 archivos de CSAM conocidos en sus plataformas. Hasta la fecha, Safer ha ayudado a sus clientes a identificar más de dos millones de piezas de CSAM en sus plataformas.

Cuantas más plataformas utilicen herramientas de detección de CSAM, más posibilidades hay de revertir el alarmante aumento del material de abuso sexual infantil en línea. 


Contenido traducido al español con fines informativos, cualquier cambio en la publicación original no será reflejada en esta entrada, favor referirse a la fuente para obtener el acceso a cualquier actualización del contenido. Para la traducción se utilizó ChatGPT, al ser una traducción automática puede contener errores gramaticales o de otro tipo, favor enviar comentarios al moderador para corregir.

Comentarios

Entradas más populares de este blog

Falsos sitios de DocuSign y Gitcode propagan NetSupport RAT mediante ataque PowerShell en múltiples etapas

Microsoft Reemplaza Aplicación de Escritorio Remoto por Windows App: Implicaciones en Ciberseguridad

El FBI advierte sobre suplantación de correo electrónico por parte del actor de amenazas norcoreano Kimsuky