Pesquisa em IA: Novas maneiras de melhorar a compreensibilidade no processo de explicação!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

A área especial de pesquisa “Construindo Explicabilidade” da UNI Paderborn investiga modelos explicativos estendidos para IA.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
A área especial de pesquisa “Construindo Explicabilidade” da UNI Paderborn investiga modelos explicativos estendidos para IA.

Pesquisa em IA: Novas maneiras de melhorar a compreensibilidade no processo de explicação!

No dia 10 de setembro de 2025, o Centro de Pesquisa Colaborativa/Transregio 318 “Construindo Explicabilidade” das universidades de Bielefeld e Paderborn fará um balanço após quatro anos de intensa pesquisa. Sob a direção da Profa. Katharina Rohlfing e do Prof. Philipp Cimiano concentra-se no objetivo de pesquisar a compreensibilidade e explicabilidade da inteligência artificial (IA). O envolvimento dos utilizadores no processo de explicação é também particularmente relevante, aspecto que dá um novo impulso à investigação. A colaboração incluiu um total de 20 projetos e seis grupos de síntese e termina com a primeira fase de financiamento no final do ano.

Um resultado importante da pesquisa é a descoberta de que os atuais sistemas de “IA explicável” muitas vezes veem as explicações como uma via de mão única. O processo de compreensão, por outro lado, é cada vez mais visto como uma troca mútua. Portanto, foi desenvolvida uma nova estrutura para “IA Social Explicável” (sXAI), que se concentra na adaptação das explicações às reações do usuário em tempo real. Esses desenvolvimentos são impulsionados por equipes interdisciplinares que combinam ciência da computação, linguística e psicologia.

Análise do processo de explicação

A equipe de Rohlfing examinou conversas reais para determinar como funciona o processo de explicação. Descobriu-se que as explicações geralmente começam com um monólogo, mas os explicandos estão ativamente envolvidos, fazendo perguntas ou sinalizando confusão. A análise também considerou o uso da linguagem e dos gestos para demonstrar compreensão. Estas descobertas mostraram que o conceito de “andaime” – apoio gradual à aprendizagem – é útil para otimizar o processo de explicação.

Um exemplo desse desenvolvimento é o sistema SNAPE, que foi concebido no projeto A01. Reage com sensibilidade às reações da pessoa e adapta as explicações individualmente à respectiva situação. É por isso que os investigadores se concentram cada vez mais na cooperação, na adequação social e no próprio processo de explicação para tornar os sistemas de IA mais eficazes e mais fáceis de utilizar.

Desafios legais e técnicos

Os desafios são diversos, especialmente no contexto jurídico. O aumento da legislação relativa à responsabilidade das empresas pelos seus sistemas de IA, como o Regulamento Geral de Proteção de Dados (RGPD) na Europa, exige a partilha transparente de informações sobre os processos de tomada de decisão. A Inteligência Artificial Explicável (XAI) visa tornar esses processos mais compreensíveis para promover a confiança e facilitar a interação do usuário.

Técnicas para alcançar a explicabilidade, tais como técnicas de atribuição de características, explicações contrafactuais e mapas de saliência, já estão estabelecidas em pesquisas. Mas a complexidade dos modelos de IA continua a ser um obstáculo; Muitos destes modelos são frequentemente vistos como “caixas negras”, o que limita significativamente a transparência da tomada de decisões. Além disso, a necessidade de diretrizes claras para promover a utilização responsável da IA ​​está a tornar-se cada vez mais clara.

No geral, a investigação realizada no Collaborative Research Center mostra que a explicabilidade da IA ​​não tem apenas dimensões técnicas, mas também dimensões jurídicas e sociais. A visão da explicabilidade precisa evoluir para incentivar a interação ativa do usuário e focar nas diversas necessidades dos usuários finais.