Investigación sobre IA: ¡Nuevas formas de mejorar la comprensibilidad en el proceso de explicación!
El área especial de investigación "Construcción de la explicabilidad" de la UNI Paderborn investiga modelos explicativos ampliados para la IA.

Investigación sobre IA: ¡Nuevas formas de mejorar la comprensibilidad en el proceso de explicación!
El 10 de septiembre de 2025, el Centro de Investigación Colaborativa/Transregio 318 “Construyendo la Explicabilidad” de las universidades de Bielefeld y Paderborn hará balance después de cuatro años de intensa investigación. Bajo la dirección de la Prof. Dra. Katharina Rohlfing y el Prof. Dr. Philipp Cimiano, el objetivo es investigar la comprensibilidad y explicabilidad de la inteligencia artificial (IA). También resulta especialmente relevante la implicación de los usuarios en el proceso de explicación, aspecto que da un nuevo impulso a la investigación. La colaboración incluyó un total de 20 proyectos y seis grupos de síntesis y finaliza con la primera fase de financiación a finales de año.
Un resultado clave de la investigación es el hallazgo de que los sistemas actuales de “IA explicable” a menudo ven las explicaciones como una vía de sentido único. El proceso de comprensión, por otra parte, se considera cada vez más como un intercambio mutuo. Por ello, se desarrolló un nuevo marco para la “IA Social Explicable” (sXAI), que se centra en adaptar las explicaciones a las reacciones de los usuarios en tiempo real. Estos desarrollos están impulsados por equipos interdisciplinarios que combinan informática, lingüística y psicología.
Análisis del proceso de explicación.
El equipo de Rohlfing examinó conversaciones reales para determinar cómo funciona el proceso de explicación. Resultó que las explicaciones a menudo comienzan con un monólogo, pero los explicados participan activamente haciendo preguntas o señalando confusión. El análisis también consideró el uso del lenguaje y los gestos para demostrar comprensión. Estos hallazgos han demostrado que el concepto de “andamio” (apoyo gradual al aprendizaje) es útil para optimizar el proceso de explicación.
Un ejemplo de tal desarrollo es el sistema SNAPE, que fue diseñado en el proyecto A01. Reacciona con sensibilidad a las reacciones de la persona y adapta las explicaciones individualmente a la situación respectiva. Es por eso que los investigadores se centran cada vez más en la cooperación, la idoneidad social y el proceso de explicación en sí para hacer que los sistemas de IA sean más efectivos y más fáciles de usar.
Desafíos legales y técnicos
Los desafíos son diversos, especialmente en el contexto legal. Las leyes cada vez más numerosas sobre la responsabilidad de las empresas por sus sistemas de inteligencia artificial, como el Reglamento General de Protección de Datos (GDPR) en Europa, exigen un intercambio transparente de información sobre los procesos de toma de decisiones. La Inteligencia Artificial Explicable (XAI) tiene como objetivo hacer que estos procesos sean más comprensibles para promover la confianza y facilitar la interacción del usuario.
Las técnicas para lograr la explicabilidad, como las técnicas de atribución de características, las explicaciones contrafácticas y los mapas de prominencia, ya están establecidas en la investigación. Pero la complejidad de los modelos de IA sigue siendo un obstáculo; Muchos de estos modelos suelen percibirse como “cajas negras”, lo que limita significativamente la transparencia de la toma de decisiones. Además, es cada vez más clara la necesidad de directrices claras para promover el uso responsable de la IA.
En general, la investigación del Centro de Investigación Colaborativa muestra que la explicabilidad de la IA no sólo tiene dimensiones técnicas, sino también legales y sociales. La visión de la explicabilidad debe evolucionar para fomentar la interacción activa del usuario y centrarse en las diversas necesidades de los usuarios finales.
