noticia

Nueva técnica de la UNED hace que la inteligencia artificial explique sus decisiones

Investigadores españoles han desarrollado un método que permite a las redes neuronales “hablar” y mostrar exactamente cómo toman sus decisiones, un paso clave para aumentar la confianza en la inteligencia artificial (IA).
04/12/2025

El equipo de investigadores José Luis Carles-Bou y Enrique Javier Carmona, del Departamento de Inteligencia Artificial de la UNED, ha creado FACE (Feature Attribution Computed Exactly), un método innovador que traduce el funcionamiento interno de las denominadas redes neuronales feedforward profundas en explicaciones claras y precisas. Estas redes funcionan como una línea de procesamiento: los datos entran, se analizan paso a paso en varias capas, y al final la red genera un resultado o predicción. La información siempre fluye hacia adelante, sin “dar marcha atrás”, lo que hace que su funcionamiento sea más fácil de entender y analizar en comparación con otros tipos de redes más complejas.

Ventajas principales del sistema:

  • Fidelidad perfecta: Las explicaciones reflejan exactamente cómo funciona la red.
  • Eficiente: Funciona rápido incluso con redes grandes y profundas.
  • Fácil de usar: No requiere el ajuste de ningún parámetro por parte del usuario.

Gracias a FACE, se puede ver qué características de los datos influyen en cada decisión, un avance crucial para detectar sesgos y comportamientos inesperados en campos como la medicina, la conducción autónoma, la ciberseguridad o las finanzas.


Esto plantea diversas cuestiones prácticas que hemos consultado a Enrique Javier Carmona, coautor del método:

¿Puede FACE ayudar a un médico a entender por qué una red neuronal recomendó cierto tratamiento?

Enrique Javier Carmona,
Enrique Javier Carmona, investigador de la UNED y coautor de FACE.

Sí. FACE está diseñado para proporcionar atribuciones exactas de características, completamente alineadas con el funcionamiento interno de la red. Esto significa que el médico puede ver qué variables clínicas influyeron en la predicción, cuánto contribuyó cada una y si lo hizo de manera positiva o negativa. Además, puede confiar en que la explicación es fiel, no aproximada como sucede con otras técnicas de comprensibilidad.

¿FACE puede revelar decisiones sesgadas antes de que afecten a personas reales?

Efectivamente. FACE permite analizar si la red ha aprendido sesgos indeseados antes de su despliegue en sistemas reales. Esto es especialmente relevante en aplicaciones que afectan directamente a personas, como la concesión de ayudas sociales, evaluaciones de riesgo financiero o procesos de selección automatizados.

¿De qué manera puede el modelo FACE influir en la confianza pública hacia la IA?

Uno de los grandes problemas de las redes neuronales es que, aunque suelen ser muy precisas, no es evidente saber en qué se basan para tomar sus decisiones. La sociedad y los reguladores exigen que los modelos sean “transparentes, justos y explicables”. El hecho de que FACE proporcione explicaciones exactas ayuda a cumplir estas exigencias y es un paso directo hacia aumentar la confianza pública en la IA.

¿Podrá FACE aplicarse a modelos más complejos, como los de inteligencia artificial generativa?

Por ahora, no. FACE está diseñado específicamente para redes neuronales feedforward profundas. Los modelos generativos utilizan arquitecturas diferentes, por lo que aplicar FACE requeriría una extensión teórica importante. Aun así, los autores no descartan que su método pueda inspirar nuevas herramientas para modelos generativos en el futuro.
Cabe recordar que las redes feedforward siguen siendo muy utilizadas en aplicaciones prácticas, especialmente en el sector industrial y en problemas basados en datos tabulares.

Los investigadores concluyen “nuestro objetivo es que las redes neuronales no solo realicen bien sus tareas, sino que también puedan explicar sus decisiones de manera transparente, fiable y comprensible” y aunque actualmente el método se aplica a redes feedforward y a explicaciones locales (una predicción a la vez), el equipo planea extenderlo a otros tipos de redes y explicaciones globales.