Credenciales de ChatGPT capturadas por robadores de información en 225 mil dispositivos infectados

El año pasado se pusieron a la venta en la web oscura al menos 225.000 conjuntos de credenciales de OpenAI, que podrían utilizarse para acceder a datos sensibles enviados a ChatGPT.


Las cuentas de ChatGPT comprometidas por malware de robo de información fueron descubiertas por investigadores de Group-IB entre enero y octubre de 2023, cuyos hallazgos se publicaron en el Informe de tendencias de delitos de alta tecnología 2023/2024 de Group-IB el jueves.

Las credenciales robadas formaban parte de los registros que se ofrecían a la venta en los mercados de la web oscura, que procedían de dispositivos infectados con ladrones de información como LummaC2, Raccoon y RedLine. Estas herramientas de malware buscan y recopilan detalles confidenciales almacenados en dispositivos infectados, como credenciales de inicio de sesión e información financiera.

Hubo un aumento del 36% en las credenciales filtradas para el acceso a ChatGPT entre los primeros cinco meses y los últimos cinco meses de la investigación de Group-IB, con más de 130.000 hosts infectados descubiertos entre junio y octubre de 2023 en comparación con poco menos de 96.000 entre enero y mayo. En el último mes del estudio se registró la mayor cantidad de robos de credenciales de OpenAI, con un total de 33.080 instancias.
LummaC2 fue la fuente más común de registros de robos de información que contenían credenciales de ChatGPT entre junio y octubre de 2023, con 70.484 casos, seguido de Raccoon y RedLine con menos de 23.000 casos cada uno.

Se trata de un cambio con respecto a los datos anteriores de Group-IB que mostraban a Raccoon como el ladrón más común de datos de OpenAI con diferencia (más de 78.000 infecciones), seguido de Vidar y RedLine, entre junio de 2022 y mayo de 2023.

"Muchas empresas están integrando ChatGPT en su flujo operativo. Los empleados ingresan correspondencia clasificada o usan el bot para optimizar el código propietario", dijo el jefe de inteligencia de amenazas de Group-IB, Dmitry Shestakov, en un comunicado el año pasado.    "Dado que la configuración estándar de ChatGPT conserva todas las conversaciones, esto podría ofrecer inadvertidamente un tesoro de inteligencia confidencial a los actores de amenazas si obtienen las credenciales de la cuenta".

Empleados que introducen datos sensibles y documentos confidenciales en ChatGPT

Estas últimas cifras sobre el compromiso de la cuenta de ChatGPT se producen a medida que se aprende más sobre el uso arriesgado de la IA generativa por parte de los empleados de las empresas.

Un informe de junio de 2023 de LayerX encontró que el 6% de los empleados de las empresas han pegado datos confidenciales en aplicaciones de IA de generación al menos una vez, y que el 4% pega datos confidenciales en estas aplicaciones "semanalmente". De estas exposiciones, el 43% incluía datos internos de la empresa, el 31% incluía código fuente y el 12% incluía información de identificación personal (PII).

Un estudio similar de junio de 2023 realizado por Cyberhaven, que se centró específicamente en ChatGPT, arrojó resultados similares. Esa investigación encontró que el 4,7% de los empleados pegó datos confidenciales en ChatGPT, y que los incidentes de fuga de datos confidenciales a ChatGPT por cada 100.000 empleados aumentaron un 60,4% entre el 4 de marzo y el 15 de abril de ese año.

Más recientemente, Menlo Security dijo en un informe de febrero de 2024 que hubo un aumento del 80% en los intentos de los empleados de la empresa de cargar archivos en sitios de IA de generación entre julio y diciembre de 2023. Es posible que esto se deba a que OpenAI agregó la capacidad para que los usuarios premium carguen archivos directamente en ChatGPT en octubre.

En particular, casi el 40% de los intentos de entradas confidenciales a las aplicaciones de IA de generación incluían documentos confidenciales, según Menlo Security, y más de la mitad incluían PII.

La propia OpenAI sufrió una fuga de datos en marzo de 2023 debido a una vulnerabilidad que expuso el 1,2% de los nombres, direcciones de correo electrónico e información de pago de los usuarios de ChatGPT Plus.

Menlo Security recomienda a las organizaciones que adopten un enfoque por capas para evitar que la información confidencial se filtre a través del uso de la IA genérica. Esto puede incluir la implementación de controles de copiar y pegar que eviten que se peguen grandes cantidades de texto o código propietario conocido en los campos de entrada, y la colocación de controles de seguridad a nivel de grupo de gen AI en lugar de bloquear los sitios de gen AI dominio por dominio.


Contenido traducido al español con fines informativos, cualquier cambio en la publicación original no será reflejada en esta entrada, favor referirse a la fuente para obtener el acceso a cualquier actualización del contenido. Para la traducción se utilizó un LLM, al ser una traducción automática puede contener errores gramaticales o de otro tipo, me pueden enviar un mensaje.

Comentarios

Entradas más populares de este blog

DeepSeek: Ciberataque expone vulnerabilidades críticas en su modelo de IA R1 y reaviva debates sobre seguridad global

Resumen de los Principales Acontecimientos en Ciberseguridad de 2024

Microsoft Reemplaza Aplicación de Escritorio Remoto por Windows App: Implicaciones en Ciberseguridad