Os alunos da TU Braunschweig estão revolucionando a IA explicável!
A TU Braunschweig acolheu o Deep Learning Lab em 2025, onde os alunos desenvolveram modelos explicativos para IA e os implementaram na prática.

Os alunos da TU Braunschweig estão revolucionando a IA explicável!
O Deep Learning Lab aconteceu na Universidade Técnica de Braunschweig no semestre de verão de 2025, sendo agora a oitava edição deste evento. Neste contexto, os alunos trabalharam intensamente no desenvolvimento de métodos para explicar modelos de aprendizagem profunda. Um objetivo central era tornar as redes neurais, muitas vezes criticadas como “caixas pretas”, mais transparentes, especialmente em áreas de aplicação como análise de imagens médicas e condução autónoma, onde a rastreabilidade das decisões é essencial. Alto Universidade Técnica de Braunschweig Em particular, foi examinada a visualização de objetos, sendo um exemplo o reconhecimento de um ônibus através de contornos, pára-brisa e avental dianteiro.
No contexto desta discussão sobre a explicabilidade da inteligência artificial (IA), o campo de pesquisa “IA Explicável” (XAI) é de crucial importância. Fraunhofer IESE salienta que a interpretabilidade dos modelos vai além das suas implicações éticas, uma vez que apoia a plena exploração do potencial destas tecnologias. Os alunos do Deep Learning Lab também trabalharam no desenvolvimento de “mapas de saliência”, que funcionam como mapas de calor e destacam as áreas relevantes da imagem que são importantes para a classificação. Esta técnica é particularmente relevante para diagnosticar erros e promover abordagens inovadoras em IA.
Aplicações práticas e sucessos
Os participantes do Deep Learning Lab trabalharam com o conjunto de dados de imagens PASCAL VOC 2012 e avaliaram as explicações dos modelos com base em dois critérios: a semelhança com as explicações humanas e a compreensibilidade das decisões tomadas. A eficiência dos modelos também foi importante, e um prémio especial, o “Prémio Ambiental”, foi atribuído a requisitos computacionais particularmente baixos.
A equipa vencedora, composta por Fabian Kollhoff, Jennifer Ly e Aruhan, ganhou o prémio principal de 600 euros pelos seus impressionantes resultados. Um prémio adicional de 450 euros foi atribuído a Mohammad Rezaei Barzani e Nils-André Forjahn pelo baixo consumo de tempo de computação da GPU, mantendo ao mesmo tempo o alto desempenho. O evento final aconteceu no dia 11 de julho de 2025, onde os participantes apresentaram seus resultados e trocaram ideias com patrocinadores e especialistas. As discussões sobre o futuro da IA explicável foram outro destaque do evento.
Insights sobre tecnologia
A criação de mapas de saliência requer um conhecimento profundo das tecnologias subjacentes. Esses mapas medem o suporte espacial de uma determinada classe em imagens e são uma ferramenta essencial para a compreensão da percepção de camadas convolucionais em visão computacional. Alto médio Os mapas de saliência destacam áreas cruciais da imagem e oferecem informações valiosas sobre como funcionam os modelos selecionados. Exemplo disso é o desenvolvimento de um modelo de classificação binária para diferenciar cães e gatos, que alcançou uma precisão de 87% graças a técnicas sofisticadas.
Apesar dos desafios inerentes ao desenvolvimento de sistemas de IA interpretáveis, estes desenvolvimentos demonstram não apenas avanços na tecnologia, mas também um caminho claro para a utilização ética da inteligência artificial e a maximização das suas áreas de aplicação. A abordagem criativa dos alunos a estes problemas ilustra o desenvolvimento dinâmico no campo de investigação e a procura constante de abordagens novas e compreensíveis em IA. Os participantes no dia do festival demonstraram o seu profundo compromisso com este tema emocionante e inovador através das suas apresentações e discussões.