En esta sesión, Luis Felipe Perdomo abordará la influencia de la inteligencia artificial en la toma de decisiones y su impacto en la gestión del riesgo. También se examinarán las principales dificultades que enfrenta la gestión de riesgos en Latinoamérica, junto con fenómenos emergentes como los deepfakes y los bots impulsados por IA. Finalmente, se ofrecerá una reflexión sobre los retos y oportunidades que estas dinámicas plantean para las organizaciones.
Son imágenes, videos o audios falsos generados con inteligencia artificial, que hacen parecer que una persona dijo o hizo algo que nunca ocurrió.
El término viene de “deep learning” (aprendizaje profundo) y “fake” (falso).
Una empresa multinacional en Hong Kong sufrió una pérdida considerable luego de que un empleado, durante una videollamada, fue engañado por deepfakes que imitaban al director financiero y otros colegas. Estos falsos solicitaron transferencias urgentes y el empleado transfirió aproximadamente HK$200 millones en múltiples transacciones antes de darse cuenta.
Son programas automatizados que interactúan con personas o sistemas, pero impulsados por inteligencia artificial para hacerlos más “inteligentes” que los bots tradicionales.
Un análisis reveló que entre el 32 % y el 35 % de los posts sobre supuestos boicots a Amazon y McDonald’s (por recortes en iniciativas de equidad e inclusión) fueron generados por bots. En X, hasta el 55 % de las cuentas relacionadas eran falsas.
|
Área/Riesgo |
Antes de IA |
Con IA (impacto) |
|
Detección y prevención de fraude |
Manual, lento, más errores |
IA: precisión alta (99,6 %), reducción 25–50 % falsos positivos |
|
Evaluación de riesgo crediticio |
Basada en modelos estáticos |
Eficiencia +15–20 %, recuperación +18–25 % |
|
Monitoreo de incidentes cibernéticos |
Reacción lenta |
Respuestas 90 % más rápidas, mejor detección |
|
Procesos operacionales |
Manuales, costosos |
Reducción 15–22 % de costos, procesos más eficientes |
|
Modelos predictivos |
Limitados y estáticos |
Precisión +30–40 %, predicción proactiva |
|
ROI e inversiones |
Difusas |
Retornos evidentes en <12 meses, fuerte apuesta financiera. |
Carrera armamentística: Países compiten por dominar la IA, lo que acelera riesgos de uso irresponsable.
Pérdida de conexión humana: La interacción excesiva con IA puede disminuir empatía y habilidades sociales.
Desinformación: Deepfakes y bots impulsados por IA facilitan manipular la opinión pública y erosionar la confianza social.
Consecuencias imprevistas: La complejidad de la IA puede generar resultados inesperados y dañinos.
Desde aproximadamente 2021 hasta principios de 2024, el Department for Work and Pensions (DWP) del Reino Unido utilizó un sistema automatizado (no basado estrictamente en IA o aprendizaje automático, sino en un algoritmo de detección de fraude) para identificar posibles reclamaciones de beneficio de vivienda incorrectas o fraudulentas.
|
Fase piloto |
64 % precisión en detectar casos problemáticos |
|
Despliegue real |
Sólo 34–37 % efectividad; dos tercios de los casos eran legítimos |
|
Número de afectados |
Más de 200.000 reclamaciones investigadas sin motivo |
|
Coste estimado |
Unos £4.4 millones en investigaciones no productivas |
|
Reacción social |
Críticas por falta de transparencia y por perjuicio a colectivos vulnerables |
|
Riesgos subrayados |
Sesgo, daño reputacional, injusticia automatizada |
|
Pilar |
Descripción |
Ejemplo Práctico |
|
1. Estrategia y liderazgo |
Junta directiva y alta gerencia establecen visión, apetito de riesgo y casos de uso de IA. |
Comité de ética de IA con miembros de negocio, tecnología y legal. |
|
2. Marco normativo |
Alineación con estándares como ISO/IEC 42001, ISO 31000, COSO, NIST AI RMF. |
Auditorías regulares de algoritmos y ciberseguridad. |
|
3. Gestión de riesgos específica de IA |
Identificación y priorización de riesgos de IA: sesgo, ciberseguridad, fallos masivos, privacidad. |
Matriz de riesgos IA con planes de mitigación. |
|
4. Transparencia y explicabilidad |
Modelos “explicables” (XAI) que permitan entender decisiones algorítmicas. |
Dashboards con métricas de desempeño y justificación de predicciones. |
|
5. Supervisión humana |
Revisión manual obligatoria en decisiones críticas (crediticias, médicas, legales). |
“Human-in-the-loop” para rechazar recomendaciones de IA. |
|
6. Ética y responsabilidad |
Políticas claras sobre uso de datos, equidad, impacto social. |
Comité de ética revisa proyectos antes de salir a producción. |
|
7. Protección de datos |
Estrategias de anonimización, encriptación y control de accesos. |
Cumplimiento del GDPR, Ley de Protección de Datos Personales. |
|
8. Monitoreo y auditoría continua |
Revisiones periódicas del modelo y sistemas de alerta temprana. |
Alertas automáticas cuando el modelo presenta “drift” (cambia el comportamiento). |
|
9. Capacitación |
Formación continua a empleados sobre IA, sesgos y seguridad. |
Cursos internos de ética y ciberseguridad IA. |
Claves del modelo:
Complementa tus conocimientos con este eBook 👇
Reporte a Comités de Riesgos y Alta Dirección: incluir indicadores conductuales junto con riesgos financieros y operacionales.