En este taller estaremos haciendo una demostración de la resolución de un laboratorio en AWS donde podremos aplicar la técnica LLM10: Model Theft, un ataque que consiste en extraer o replicar un modelo de IA alojado en AWS Bedrock.
Durante la sesión práctica, los participantes aprenderán a identificar vulnerabilidades en modelos de IA desplegados en la nube y las técnicas utilizadas por los adversarios para extraer información sensible de estos modelos. El laboratorio incluye escenarios realistas de ataque y defensa.
Técnica LLM10: Model Theft en AWS Bedrock
Interacción con Amazon S3 y Lambda
Configuración de IAM AWS y Amazon EC2
Uso de Session Manager para gestión segura
Los participantes trabajarán con una infraestructura vulnerable desarrollada específicamente para este laboratorio, explorando técnicas de extracción de modelos de IA y las contramedidas necesarias para proteger estos activos críticos en entornos empresariales.
Taller ideal para security engineers, AI/ML engineers, cloud security specialists y penetration testers interesados en la seguridad de modelos de inteligencia artificial en AWS.
Este workshop será impartido por Gerardo Eliasib y Nelson Contreras, expertos especialistas en cloud security que han desarrollado específicamente para este evento un laboratorio avanzado que combina técnicas de AI security con infraestructura AWS.
Nivel: Intermedio-Avanzado
Laboratorio práctico centrado en técnicas de Model Theft (LLM10) aplicadas a modelos de IA en AWS Bedrock, con interacción completa del ecosistema AWS.
SALA A4
9:00 AM - 10:30 AM