La intersección entre ciberseguridad e inteligencia artificial está mostrando un nuevo y preocupante panorama, en el que las organizaciones podrían ser cómplices involuntarias de servicios inaceptables. Si las credenciales de una empresa para acceder a su infraestructura en la nube son robadas, las consecuencias pueden ser devastadoras. La última tendencia entre ciberdelincuentes es reutilizar estas credenciales para operar y vender servicios de chat sexualizados basados en inteligencia artificial.
El auge de los servicios sexuales impulsados por IA
Investigadores de Permiso Security han observado un alarmante aumento en los ataques a infraestructuras de inteligencia artificial generativa, como Bedrock de Amazon Web Services (AWS). Estos ataques se incrementan notablemente cuando las credenciales se dejan expuestas involuntariamente en repositorios de código como GitHub. Tras investigaciones detalladas, descubrieron que los atacantes utilizan estas credenciales para interactuar con modelos de lenguaje de IA para alimentar chatbots con contenido sexual e incluso escenarios oscuros de explotación infantil.
Este modus operandi no es nuevo en el cibercrimen, pero lo que distingue a estos ataques es la sofisticación en el uso de las IAs. Los atacantes utilizan técnicas de “jailbreaking” para burlar los filtros de contenido y transformarlas en figuras de role-playing sexual. Esta técnica engaña a los modelos de IA para que operen fuera de los límites éticos y legales preconfigurados.
El papel de los proveedores de servicios en la nube
La falta de visibilidad cuando las credenciales se comprometen es un problema importante. Muchos usuarios de AWS no habilitan registros de acceso por defecto, lo que deja un vacío en la capacidad de ver cómo se utilizan las credenciales robadas. Incluso cuando están habilitados, los costos asociados con el registro pueden ser prohibitivos. En respuesta, algunos atacantes han comenzado a ignorar credenciales que tienen habilitado el logging para evitar ser detectados.
AWS ha implementado medidas para alertar a los usuarios cuando se descubren credenciales expuestas, pero los atacantes han sido capaces de explotar estas vulnerabilidades antes de que se tomen medidas de contención efectivas. A pesar de las alertas automáticas de AWS, aún es posible que los atacantes utilicen servicios como Bedrock para fines ilícitos.
La prevención es clave
Para las organizaciones, el enfoque debe ser proactivo. Aquí hay algunas recomendaciones:
1. Protección de credenciales: Nunca almacenar claves de acceso en repositorios públicos o compartidos. Utilizar herramientas de gestión de secretos para mantener la seguridad de las claves.
2. Habilitar registros y monitoreo: Activar registros de invocaciones de modelos de AI para tener visibilidad de cómo se utilizan los servicios. Utilizar herramientas como AWS CloudTrail para monitorear llamadas y actividades sospechosas.
3. Utilizar detección de amenazas: Implementar servicios como GuardDuty para detectar actividades inusuales o maliciosas.
4. Control de costos: Utilizar exploradores de costos y alarmas para estar al tanto de aumentos anormales en el uso que puedan indicar abuso de los servicios.
La innovación en seguridad IA
Empresas como Anthropic están avanzando en técnicas para hacer que sus modelos sean más resistentes a los “jailbreaks”. Estas incluyen medidas técnicas y políticas de uso estrictas, además de trabajar con expertos en seguridad infantil para evitar que se exploten vulnerabilidades en entornos de IA.
La colaboración entre la comunidad de investigación, las empresas de tecnología, y las organizaciones es crucial para mitigar estos riesgos emergentes en el uso de inteligencia artificial. La seguridad en la nube no solo depende de las herramientas y tecnologías, sino de una cultura de consciencia y vigilancia constante.