• 9:00 AM - 10:30 AM, SALA A4

  • 23 Octubre 2025

Hackea y protege nuestra infraestructura en AWS

En este taller estaremos haciendo una demostración de la resolución de un laboratorio en AWS donde podremos aplicar la técnica LLM10: Model Theft, un ataque que consiste en extraer o replicar un modelo de IA alojado en AWS Bedrock.

Durante la sesión práctica, los participantes aprenderán a identificar vulnerabilidades en modelos de IA desplegados en la nube y las técnicas utilizadas por los adversarios para extraer información sensible de estos modelos. El laboratorio incluye escenarios realistas de ataque y defensa.

  • Técnica LLM10: Model Theft en AWS Bedrock

  • Interacción con Amazon S3 y Lambda

  • Configuración de IAM AWS y Amazon EC2

  • Uso de Session Manager para gestión segura

Los participantes trabajarán con una infraestructura vulnerable desarrollada específicamente para este laboratorio, explorando técnicas de extracción de modelos de IA y las contramedidas necesarias para proteger estos activos críticos en entornos empresariales.

Taller ideal para security engineers, AI/ML engineers, cloud security specialists y penetration testers interesados en la seguridad de modelos de inteligencia artificial en AWS.


Coordinadores del Workshop

Este workshop será impartido por Gerardo Eliasib y Nelson Contreras, expertos especialistas en cloud security que han desarrollado específicamente para este evento un laboratorio avanzado que combina técnicas de AI security con infraestructura AWS.


Workshop Details

Nivel: Intermedio-Avanzado

Laboratorio práctico centrado en técnicas de Model Theft (LLM10) aplicadas a modelos de IA en AWS Bedrock, con interacción completa del ecosistema AWS.

Información del Evento

SALA A4

9:00 AM - 10:30 AM

23 Octubre 2025

0