Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Temario del curso
Introducción al Red Teaming de IA
- Comprendiendo el panorama de amenazas en la IA
- Papeles de los equipos rojos en la seguridad de la IA
- Consideraciones éticas y legales
Adversario Machine Learning
- Tipos de ataques: evasión, envenenamiento, extracción, inferencia
- Generación de ejemplos adversarios (por ejemplo, FGSM, PGD)
- Ataques dirigidos vs no dirigidos y métricas de éxito
Pruebas de Robustez del Modelo
- Evaluando la robustez ante perturbaciones
- Explorando puntos ciegos y modos de fallo del modelo
- Puestas a prueba extremas de modelos de clasificación, visión y procesamiento de lenguaje natural (NLP)
Red Teaming en Pipelines de IA
- Superficie de ataque de pipelines de IA: datos, modelo, implementación
- Explotando APIs y puntos finales inseguros del modelo
- Ingeniería inversa del comportamiento y salidas del modelo
Simulación y Herramientas
- Utilización de la Caja de Herramientas de Robustez Adversarial (ART)
- Red Teaming con herramientas como TextAttack e IBM ART
- Herramientas de aislamiento, monitoreo y observabilidad
Estrategia y Defensa del Equipo Rojo en IA Collaboration
- Desarrollando ejercicios y objetivos para equipos rojos
- Comunicación de hallazgos a los equipos azules
- Integración del red teaming en la gestión de riesgos de IA
Resumen y Pasos Siguientes
Requerimientos
- Una comprensión de la inteligencia artificial y las arquitecturas de aprendizaje profundo
- Experiencia con Python y marcos ML (por ejemplo, TensorFlow, PyTorch)
- Familiaridad con conceptos de ciberseguridad o técnicas de seguridad ofensiva
Publico Objetivo
- Investigadores en seguridad
- Equipos de seguridad ofensiva
- Profesionales de aseguramiento de IA y red teams
14 Horas