Riesgos de la IA Generativa en la Seguridad del SDLC
Exploración sistemática de los riesgos de seguridad que introducen los modelos de lenguaje grandes (LLM) en el ciclo de vida del desarrollo de software, fundamentada en la revisión de 38 estudios científicos mediante metodología PRISMA 2020.
Resultado Esperado de Aprendizaje
El estudiante identificará y evaluará los principales riesgos de seguridad asociados al uso de herramientas de inteligencia artificial generativa en el ciclo de vida del desarrollo de software, mediante el análisis de evidencia científica derivada de una revisión sistemática de literatura, con el fin de proponer estrategias de mitigación alineadas a marcos de gobernanza internacionales (EU AI Act, NIST AI RMF, OWASP LLM Top-10), con un criterio de precisión conceptual ≥80%.
Estructura del ODC
10 módulos progresivos · Navegación no lineal · Evaluación formativa
Contexto: IA Generativa en el Desarrollo
LLMs, adopción global y el riesgo emergente en el desarrollo de software moderno.
SDLC Seguro e Integración de IA
Fases del ciclo de vida, DevSecOps y el principio Shift Left Security.
Herramientas de IA Generativa
GitHub Copilot, ChatGPT, CodeWhisperer: capacidades, límites y tabla comparativa.
Vulnerabilidades CWE Top-25
Tipos de fallas más frecuentes en código generado por IA: CWE-787, CWE-089, CWE-079.
Impacto Empírico Cuantificado
Evidencia estadística: ¿cuánto código vulnerable genera la IA? Datos de 38 estudios.
Privacidad y Filtraciones de Datos
CodexLeaks, ataques de inferencia de membresía y riesgos de exposición de PII.
Estrategias de Mitigación
SVEN, fine-tuning, posprocesamiento, SAST/DAST y mejores prácticas operativas.
Gobernanza y Marcos Regulatorios
EU AI Act, NIST AI RMF, ISO/IEC 42001 y OWASP LLM Top-10 para desarrolladores.
Metodología de Investigación
PRISMA 2020: del universo de 397 a 38 estudios incluidos. Ecuación de búsqueda Scopus.
Conclusiones y Recomendaciones
Síntesis, brechas del conocimiento, líneas futuras y perfil del desarrollador responsable.