Inteligencia artificial

Gobernar la IA: el reto de tomar decisiones con máquinas en la sala 

Gobernar la IA: el reto de tomar decisiones con máquinas en la sala 

La inteligencia artificial ya no solo automatiza tareas: también empieza a influir en decisiones estratégicas, desde la inversión empresarial hasta la política pública.

Imaginemos una junta directiva en la que, entre los consejeros humanos, hay también un sistema de inteligencia artificial. No como observador pasivo, sino como participante activo, capaz de sugerir inversiones, advertir sobre riesgos o priorizar decisiones. Este escenario ya no es ciencia ficción: está ocurriendo en sectores como la sanidad, la justicia y la gestión de emergencias. Pero ¿qué sucede realmente cuando hay una máquina en la sala donde se toman decisiones críticas? ¿Cómo gobernar la IA (sin ser gobernados por ella)? 

Hasta hace poco, la inteligencia artificial se ha utilizado sobre todo para automatizar tareas repetitivas y estructuradas. Hoy, su papel se transforma: se convierte en una aliada en la toma de decisiones de alto impacto. De hecho, gracias a técnicas de aprendizaje automático, los sistemas de IA ya no solo procesan grandes volúmenes de datos, sino que comienzan a influir en elecciones estratégicas empresariales y de gobernanza política: desde qué paciente atender primero en una UCI saturada hasta qué política aplicar ante una crisis energética o sanitaria. 

Este fenómeno se inserta en un paradigma más amplio: el de la toma de decisiones basada en datos (data-driven decision making). Según el German Research Center for Artificial Intelligence (DFKI), este enfoque ofrece ventajas competitivas claras: reduce errores, mejora la asignación de recursos y permite responder con mayor agilidad a los cambios del entorno. La IA actúa así como catalizador, procesando no solo datos estructurados, sino también información no convencional —como interacciones digitales o variables ambientales— para generar insights estratégicos. 

IA en hospitales, tribunales y centros de crisis 

El despliegue de sistemas de IA en sectores sensibles ya es una realidad. En medicina, se utilizan algoritmos para predecir complicaciones, asignar camas hospitalarias o sugerir tratamientos personalizados. En marzo de 2025, la iniciativa europea SHAIPED —parte de la infraestructura HealthData@EU— comenzó a probar modelos de IA en entornos clínicos reales para apoyar decisiones médicas con datos sanitarios multifuente.  

En China, desde enero de 2025, el sistema DeepSeek se aplica a gran escala en hospitales terciarios, gestionando flujos clínicos y mejorando la precisión diagnóstica. Por otro lado, la red AI4PEP, impulsada desde América Latina, busca democratizar el uso de IA para anticipar pandemias y gestionar crisis de salud pública, apoyándose en ciencia local y principios de equidad digital. 

En los tribunales, la cuestión es más controvertida. El algoritmo COMPAS en EE. UU. ha sido criticado por replicar sesgos raciales al predecir reincidencias delictivas, a pesar de no utilizar explícitamente la variable étnica. En este sentido, el Consejo de Europa, a través del proyecto JuLIA, ha advertido sobre los riesgos de opacidad algorítmica en procesos judiciales y ha pedido marcos éticos claros para garantizar la imparcialidad y la rendición de cuentas. 

El caso es que la promesa de una IA “racional” se basa en su capacidad para considerar millones de variables, evaluar múltiples escenarios y ofrecer recomendaciones con rapidez. Pero esa promesa tiene limitaciones. La calidad de las decisiones algorítmicas depende de la calidad de los datos de entrada, y si los datos son incompletos, sesgados o desactualizados, los resultados serán igual de defectuosos. Además, muchos algoritmos funcionan como cajas negras: ofrecen conclusiones sin explicar con claridad cómo se ha llegado a ellas. Esta opacidad genera desconfianza, especialmente en ámbitos como la salud o la justicia, donde comprender los fundamentos de una decisión es esencial. 

Otro problema clave es la falta de “intuición experta”. Un directivo experimentado, aunque no tenga acceso inmediato a todos los datos, puede detectar patrones, anticipar escenarios improbables y tomar decisiones creativas en condiciones ambiguas. La IA, por ahora, carece de esa capacidad. No distingue matices contextuales ni puede asumir plenamente la responsabilidad ética de sus recomendaciones. 

Gobernanza de la IA: entre regulación y oportunidad 

La necesidad de una gobernanza sólida de la IA se ha convertido así en un eje estratégico tanto para gobiernos como para empresas. En 2024 entró en vigor el AI Act europeo (Reglamento UE 2024/1689), que establece obligaciones diferenciadas según el nivel de riesgo del sistema. Para sectores como la salud, la justicia o las infraestructuras críticas, la legislación exige transparencia, explicabilidad, supervisión humana y control de sesgos. 

En paralelo, el Framework Convention on Artificial Intelligence del Consejo de Europa, adoptado en mayo de 2024, vincula el desarrollo de la IA con la protección de los derechos humanos y la democracia. Por su parte, países de América Latina como Chile, México o Colombia están comenzando a adaptar sus marcos regulatorios. Colombia, por ejemplo, incluyó guías algorítmicas explícitas en su política CONPES 4144 y en sentencias judiciales como la T‑067/25. 

Para las empresas, cumplir con estos marcos no solo evitará sanciones o rechazos de compra: también se traducirá en confianza reputacional y eficiencia operativa. De hecho, como subraya la iniciativa FUTURE-AI, integrada por más de cien expertos de 51 países, las empresas que apuesten por sistemas auditables y human-centric tendrán una ventaja estructural sobre las que privilegien solo la velocidad o la escala. 

Además de leyes, se necesitan principios. La IA debe ser explicable, justa, segura y auditable, y su desarrollo debe estar alineado con valores humanos, no solo con objetivos de eficiencia. Como destaca el informe Megatrends 2025 de la Fundación Innovación Bankinter, uno de los grandes desafíos es garantizar que esta tecnología se use para potenciar el talento y el bienestar, no para sustituir el juicio humano ni crear monopolios de poder computacional. 

Así, frente a la polarización del debate —utopistas versus alarmistas— está surgiendo una tercera vía: un enfoque colaborativo. La IA no debe reemplazar al humano, sino liberar tiempo y energía para que el juicio experto florezca. Modelos teóricos como el garbage can model de Cohen y March (1972), que describen las decisiones como procesos caóticos e inciertos, pueden encontrar en la IA un aliado que ordene el “caos informativo” sin sustituir el sentido crítico. 

Para eso, es clave redefinir el rol del decisor, que ya no deberá ser un simple receptor de datos, sino un traductor estratégico que interpreta, valida y transforma los outputs algorítmicos en decisiones efectivas y humanas. Porque la IA puede sugerir, pero aún no puede asumir la responsabilidad de una elección moral o creativa. 

Te puede interesar

La IA física, una oportunidad para las empresas 

La IA física, una oportunidad para las empresas 

Esta nueva frontera tecnológica plantea desafíos, pero también abre horizontes para innovar y optimizar procesos.

Leer más
Jeremy Kahn – Más allá del hype: las verdaderas tendencias en inteligencia artificial

Jeremy Kahn – Más allá del hype: las verdaderas tendencias en inteligencia[...]

El editor de IA en Fortune Magazine desmonta el ruido mediático y apunta hacia un futuro más útil, seguro y humano pa[…]

Leer más
AI Index Report 2025: el pulso global de la IA y una visión sobre su impacto físico

AI Index Report 2025: el pulso global de la IA y una visión sobre su impacto fís[...]

Análisis del AI Index Report 2025 elaborado por Stanford HAI y su conexión con el informe Embodied AI del Future Trend[…]

Leer más

Últimas noticias

Conrad Wolfram: “Si enseñamos como si los ordenadores no existieran, estamos fracasando”

Conrad Wolfram: “Si enseñamos como si los ordenadores no existieran, estamos fr[...]

El experto defiende un cambio radical en la enseñanza de las matemáticas: menos cálculo manual, más pensamiento comp[…]

Leer más
Neurotecnología cotidiana: medir el cerebro para mejorar la vida

Neurotecnología cotidiana: medir el cerebro para mejorar la vida

Las tecnologías que antes estaban confinadas a laboratorios hoy se están integrando en productos de consumo, programas[…]

Leer más
Agua inteligente: sensores, algoritmos y datos para enfrentar la crisis hídrica

Agua inteligente: sensores, algoritmos y datos para enfrentar la crisis hídrica

Frente a una emergencia cada vez más apremiante, están emergiendo soluciones tecnológicas que transforman la gestión[…]

Leer más