Escuela de Gestión de Riesgos

Influencia de la IA en toma decisiones sobre la gestión del riesgo

Por Escuela de Gestión de Riesgos el 16 de septiembre de 2025


En esta sesión, Luis Felipe Perdomo abordará la influencia de la inteligencia artificial en la toma de decisiones y su impacto en la gestión del riesgo. También se examinarán las principales dificultades que enfrenta la gestión de riesgos en Latinoamérica, junto con fenómenos emergentes como los deepfakes y los bots impulsados por IA. Finalmente, se ofrecerá una reflexión sobre los retos y oportunidades que estas dinámicas plantean para las organizaciones.

Crear cuenta gratis

Dificultades en la GR en Latinoamérica

  • Falta de cultura en todos los niveles de la organización
  • Falta de herramientas tecnológicas y uso excesivo de la IA
  • No se sabe qué hacer con el Riesgo Financieramente
  • Incertidumbre a nivel País
  • Cumplimiento Normativo

Deepfakes

Son imágenes, videos o audios falsos generados con inteligencia artificial, que hacen parecer que una persona dijo o hizo algo que nunca ocurrió.
El término viene de “deep learning” (aprendizaje profundo) y “fake” (falso).

Gran estafa mediante videollamada deepfake — HK$200 millones (~US$25,6 M)

Una empresa multinacional en Hong Kong sufrió una pérdida considerable luego de que un empleado, durante una videollamada, fue engañado por deepfakes que imitaban al director financiero y otros colegas. Estos falsos solicitaron transferencias urgentes y el empleado transfirió aproximadamente HK$200 millones en múltiples transacciones antes de darse cuenta.


Bots impulsados (o “IA-powered bots”)

Son programas automatizados que interactúan con personas o sistemas, pero impulsados por inteligencia artificial para hacerlos más “inteligentes” que los bots tradicionales.


Bots en redes impulsando boicots de marca

Un análisis reveló que entre el 32 % y el 35 % de los posts sobre supuestos boicots a Amazon y McDonald’s (por recortes en iniciativas de equidad e inclusión) fueron generados por bots. En X, hasta el 55 % de las cuentas relacionadas eran falsas.

Área/Riesgo

Antes de IA

Con IA (impacto)

Detección y prevención de fraude

Manual, lento, más errores

IA: precisión alta (99,6 %), reducción 25–50 % falsos positivos

Evaluación de riesgo crediticio

Basada en modelos estáticos

Eficiencia +15–20 %, recuperación +18–25 %

Monitoreo de incidentes cibernéticos

Reacción lenta

Respuestas 90 % más rápidas, mejor detección

Procesos operacionales

Manuales, costosos

Reducción 15–22 % de costos, procesos más eficientes

Modelos predictivos

Limitados y estáticos

Precisión +30–40 %, predicción proactiva

ROI e inversiones

Difusas

Retornos evidentes en <12 meses, fuerte apuesta financiera.

  1. Falta de transparencia: Los modelos complejos (ej. redes neuronales profundas) son difíciles de interpretar, lo que genera desconfianza en sus decisiones.

  2. Prejuicios y discriminación: Si los datos o algoritmos están sesgados, la IA puede amplificar desigualdades sociales.

  3. Privacidad: El uso masivo de datos personales pone en riesgo la protección de la información y la seguridad.

  4. Dilemas éticos: La IA puede tomar decisiones con alto impacto social, lo que exige marcos éticos claros.

  5. Seguridad: Los ciberdelincuentes pueden usar IA para ataques sofisticados; además, preocupa el armamento autónomo.

  6. Concentración de poder: Grandes corporaciones o gobiernos pueden monopolizar el desarrollo y control de la IA.

  7. Dependencia excesiva: Confiar demasiado en IA reduce pensamiento crítico, creatividad y juicio humano.

  8. Desplazamiento laboral: La automatización reemplaza empleos, sobre todo poco calificados, aunque también crea nuevos.

  9. Desigualdad económica: La IA puede aumentar la brecha entre ricos y pobres, favoreciendo a grandes actores.

  10. Retos jurídicos: Se requieren nuevas leyes para temas de responsabilidad, derechos y propiedad intelectual.

  11. Carrera armamentística: Países compiten por dominar la IA, lo que acelera riesgos de uso irresponsable.

  12. Pérdida de conexión humana: La interacción excesiva con IA puede disminuir empatía y habilidades sociales.

  13. Desinformación: Deepfakes y bots impulsados por IA facilitan manipular la opinión pública y erosionar la confianza social.

  14. Consecuencias imprevistas: La complejidad de la IA puede generar resultados inesperados y dañinos.

  15. Riesgos existenciales: Una IA general (AGI) superior a la humana podría no alinearse con nuestros valores y representar una amenaza a la humanidad.

Caso destacado: algoritmo del DWP que marcó erróneamente 200 000 reclamaciones legítimas como potencial fraude

  1. ¿Qué ocurrió exactamente?

Desde aproximadamente 2021 hasta principios de 2024, el Department for Work and Pensions (DWP) del Reino Unido utilizó un sistema automatizado (no basado estrictamente en IA o aprendizaje automático, sino en un algoritmo de detección de fraude) para identificar posibles reclamaciones de beneficio de vivienda incorrectas o fraudulentas.

Fase piloto

64 % precisión en detectar casos problemáticos

Despliegue real

Sólo 34–37 % efectividad; dos tercios de los casos eran legítimos

Número de afectados

Más de 200.000 reclamaciones investigadas sin motivo

Coste estimado

Unos £4.4 millones en investigaciones no productivas

Reacción social

Críticas por falta de transparencia y por perjuicio a colectivos vulnerables

Riesgos subrayados

Sesgo, daño reputacional, injusticia automatizada

 

Pilar

Descripción

Ejemplo Práctico

1. Estrategia y liderazgo

Junta directiva y alta gerencia establecen visión, apetito de riesgo y casos de uso de IA.

Comité de ética de IA con miembros de negocio, tecnología y legal.

2. Marco normativo

Alineación con estándares como ISO/IEC 42001, ISO 31000, COSO, NIST AI RMF.

Auditorías regulares de algoritmos y ciberseguridad.

3. Gestión de riesgos específica de IA

Identificación y priorización de riesgos de IA: sesgo, ciberseguridad, fallos masivos, privacidad.

Matriz de riesgos IA con planes de mitigación.

4. Transparencia y explicabilidad

Modelos “explicables” (XAI) que permitan entender decisiones algorítmicas.

Dashboards con métricas de desempeño y justificación de predicciones.

5. Supervisión humana

Revisión manual obligatoria en decisiones críticas (crediticias, médicas, legales).

“Human-in-the-loop” para rechazar recomendaciones de IA.

6. Ética y responsabilidad

Políticas claras sobre uso de datos, equidad, impacto social.

Comité de ética revisa proyectos antes de salir a producción.

7. Protección de datos

Estrategias de anonimización, encriptación y control de accesos.

Cumplimiento del GDPR, Ley de Protección de Datos Personales.

8. Monitoreo y auditoría continua

Revisiones periódicas del modelo y sistemas de alerta temprana.

Alertas automáticas cuando el modelo presenta “drift” (cambia el comportamiento).

9. Capacitación

Formación continua a empleados sobre IA, sesgos y seguridad.

Cursos internos de ética y ciberseguridad IA.

 

  • Control de riesgos: Anticipa fraudes, sesgos y fallos de modelos.
  • Cumplimiento normativo: ISO/IEC 42001, NIST AI RMF, EU AI Act.
  • Agilidad: Proyectos IA pasan por filtros claros, reduciendo tiempo de aprobación.
  • Confianza: Transparencia ante clientes, inversionistas y reguladores.

Claves del modelo:

  • Siempre hay un control humano en la última línea.
  • IA se gestiona como un activo crítico dentro del riesgo operacional.
  • Los flujos garantizan auditoría, trazabilidad y respuesta rápida.

Complementa tus conocimientos con este eBook 👇

Inteligencia artificial en la gestión de riesgos

Reporte a Comités de Riesgos y Alta Dirección: incluir indicadores conductuales junto con riesgos financieros y operacionales.

Masterclass gratuita: ¿Cómo enfrentar la incertidumbre y navegarla con confianza?

No hay comentarios

Díganos lo que piensa