Los complementos de terceros de ChatGPT podrían llevar a la toma de control de cuentas
Los investigadores de ciberseguridad han descubierto que los complementos de terceros disponibles para OpenAI ChatGPT podrían actuar como una nueva superficie de ataque para los actores de amenazas que buscan obtener acceso no autorizado a datos confidenciales. Según una nueva investigación publicada por Salt Labs , las fallas de seguridad encontradas directamente en ChatGPT y dentro del ecosistema podrían permitir a los atacantes instalar complementos maliciosos sin el consentimiento de los usuarios y secuestrar cuentas en sitios web de terceros como GitHub. Los complementos de ChatGPT , como su nombre lo indica, son herramientas diseñadas para ejecutarse sobre el modelo de lenguaje grande (LLM) con el objetivo de acceder a información actualizada, ejecutar cálculos o acceder a servicios de terceros. Desde entonces, OpenAI también ha introducido GPTs , que son versiones personalizadas de ChatGPT diseñadas para casos de uso específicos, al tiempo que reducen las dependencias de servici...