Influencia de la IA en toma decisiones sobre la gestión del riesgo
Por Escuela de Gestión de Riesgos el 16 de septiembre de 2025
En esta sesión, Luis Felipe Perdomo abordará la influencia de la inteligencia artificial en la toma de decisiones y su impacto en la gestión del riesgo. También se examinarán las principales dificultades que enfrenta la gestión de riesgos en Latinoamérica, junto con fenómenos emergentes como los deepfakes y los bots impulsados por IA. Finalmente, se ofrecerá una reflexión sobre los retos y oportunidades que estas dinámicas plantean para las organizaciones.
Dificultades en la GR en Latinoamérica
- Falta de cultura en todos los niveles de la organización
- Falta de herramientas tecnológicas y uso excesivo de la IA
- No se sabe qué hacer con el Riesgo Financieramente
- Incertidumbre a nivel País
- Cumplimiento Normativo
Deepfakes
Son imágenes, videos o audios falsos generados con inteligencia artificial, que hacen parecer que una persona dijo o hizo algo que nunca ocurrió.
El término viene de “deep learning” (aprendizaje profundo) y “fake” (falso).
Gran estafa mediante videollamada deepfake — HK$200 millones (~US$25,6 M)
Una empresa multinacional en Hong Kong sufrió una pérdida considerable luego de que un empleado, durante una videollamada, fue engañado por deepfakes que imitaban al director financiero y otros colegas. Estos falsos solicitaron transferencias urgentes y el empleado transfirió aproximadamente HK$200 millones en múltiples transacciones antes de darse cuenta.
Bots impulsados (o “IA-powered bots”)
Son programas automatizados que interactúan con personas o sistemas, pero impulsados por inteligencia artificial para hacerlos más “inteligentes” que los bots tradicionales.
Bots en redes impulsando boicots de marca
Un análisis reveló que entre el 32 % y el 35 % de los posts sobre supuestos boicots a Amazon y McDonald’s (por recortes en iniciativas de equidad e inclusión) fueron generados por bots. En X, hasta el 55 % de las cuentas relacionadas eran falsas.
Área/Riesgo |
Antes de IA |
Con IA (impacto) |
Detección y prevención de fraude |
Manual, lento, más errores |
IA: precisión alta (99,6 %), reducción 25–50 % falsos positivos |
Evaluación de riesgo crediticio |
Basada en modelos estáticos |
Eficiencia +15–20 %, recuperación +18–25 % |
Monitoreo de incidentes cibernéticos |
Reacción lenta |
Respuestas 90 % más rápidas, mejor detección |
Procesos operacionales |
Manuales, costosos |
Reducción 15–22 % de costos, procesos más eficientes |
Modelos predictivos |
Limitados y estáticos |
Precisión +30–40 %, predicción proactiva |
ROI e inversiones |
Difusas |
Retornos evidentes en <12 meses, fuerte apuesta financiera. |
- Falta de transparencia: Los modelos complejos (ej. redes neuronales profundas) son difíciles de interpretar, lo que genera desconfianza en sus decisiones.
- Prejuicios y discriminación: Si los datos o algoritmos están sesgados, la IA puede amplificar desigualdades sociales.
- Privacidad: El uso masivo de datos personales pone en riesgo la protección de la información y la seguridad.
- Dilemas éticos: La IA puede tomar decisiones con alto impacto social, lo que exige marcos éticos claros.
- Seguridad: Los ciberdelincuentes pueden usar IA para ataques sofisticados; además, preocupa el armamento autónomo.
- Concentración de poder: Grandes corporaciones o gobiernos pueden monopolizar el desarrollo y control de la IA.
- Dependencia excesiva: Confiar demasiado en IA reduce pensamiento crítico, creatividad y juicio humano.
- Desplazamiento laboral: La automatización reemplaza empleos, sobre todo poco calificados, aunque también crea nuevos.
- Desigualdad económica: La IA puede aumentar la brecha entre ricos y pobres, favoreciendo a grandes actores.
- Retos jurídicos: Se requieren nuevas leyes para temas de responsabilidad, derechos y propiedad intelectual.
-
Carrera armamentística: Países compiten por dominar la IA, lo que acelera riesgos de uso irresponsable.
-
Pérdida de conexión humana: La interacción excesiva con IA puede disminuir empatía y habilidades sociales.
-
Desinformación: Deepfakes y bots impulsados por IA facilitan manipular la opinión pública y erosionar la confianza social.
-
Consecuencias imprevistas: La complejidad de la IA puede generar resultados inesperados y dañinos.
- Riesgos existenciales: Una IA general (AGI) superior a la humana podría no alinearse con nuestros valores y representar una amenaza a la humanidad.
Caso destacado: algoritmo del DWP que marcó erróneamente 200 000 reclamaciones legítimas como potencial fraude
- ¿Qué ocurrió exactamente?
Desde aproximadamente 2021 hasta principios de 2024, el Department for Work and Pensions (DWP) del Reino Unido utilizó un sistema automatizado (no basado estrictamente en IA o aprendizaje automático, sino en un algoritmo de detección de fraude) para identificar posibles reclamaciones de beneficio de vivienda incorrectas o fraudulentas.
Fase piloto |
64 % precisión en detectar casos problemáticos |
Despliegue real |
Sólo 34–37 % efectividad; dos tercios de los casos eran legítimos |
Número de afectados |
Más de 200.000 reclamaciones investigadas sin motivo |
Coste estimado |
Unos £4.4 millones en investigaciones no productivas |
Reacción social |
Críticas por falta de transparencia y por perjuicio a colectivos vulnerables |
Riesgos subrayados |
Sesgo, daño reputacional, injusticia automatizada |
Pilar |
Descripción |
Ejemplo Práctico |
1. Estrategia y liderazgo |
Junta directiva y alta gerencia establecen visión, apetito de riesgo y casos de uso de IA. |
Comité de ética de IA con miembros de negocio, tecnología y legal. |
2. Marco normativo |
Alineación con estándares como ISO/IEC 42001, ISO 31000, COSO, NIST AI RMF. |
Auditorías regulares de algoritmos y ciberseguridad. |
3. Gestión de riesgos específica de IA |
Identificación y priorización de riesgos de IA: sesgo, ciberseguridad, fallos masivos, privacidad. |
Matriz de riesgos IA con planes de mitigación. |
4. Transparencia y explicabilidad |
Modelos “explicables” (XAI) que permitan entender decisiones algorítmicas. |
Dashboards con métricas de desempeño y justificación de predicciones. |
5. Supervisión humana |
Revisión manual obligatoria en decisiones críticas (crediticias, médicas, legales). |
“Human-in-the-loop” para rechazar recomendaciones de IA. |
6. Ética y responsabilidad |
Políticas claras sobre uso de datos, equidad, impacto social. |
Comité de ética revisa proyectos antes de salir a producción. |
7. Protección de datos |
Estrategias de anonimización, encriptación y control de accesos. |
Cumplimiento del GDPR, Ley de Protección de Datos Personales. |
8. Monitoreo y auditoría continua |
Revisiones periódicas del modelo y sistemas de alerta temprana. |
Alertas automáticas cuando el modelo presenta “drift” (cambia el comportamiento). |
9. Capacitación |
Formación continua a empleados sobre IA, sesgos y seguridad. |
Cursos internos de ética y ciberseguridad IA. |
- Control de riesgos: Anticipa fraudes, sesgos y fallos de modelos.
- Cumplimiento normativo: ISO/IEC 42001, NIST AI RMF, EU AI Act.
- Agilidad: Proyectos IA pasan por filtros claros, reduciendo tiempo de aprobación.
- Confianza: Transparencia ante clientes, inversionistas y reguladores.
Claves del modelo:
- Siempre hay un control humano en la última línea.
- IA se gestiona como un activo crítico dentro del riesgo operacional.
- Los flujos garantizan auditoría, trazabilidad y respuesta rápida.
Complementa tus conocimientos con este eBook 👇
Reporte a Comités de Riesgos y Alta Dirección: incluir indicadores conductuales junto con riesgos financieros y operacionales.
También te puede gustar
Episodios relacionados

Cómo promover la cultura de identificación y gestión de riesgos

Tipos de impactos que genera la materialización de eventos

No hay comentarios
Díganos lo que piensa