Les étudiants de la TU Braunschweig révolutionnent l’IA explicable !

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

La TU Braunschweig a accueilli le Deep Learning Lab en 2025, où les étudiants ont développé des modèles explicatifs pour l'IA et les ont mis en pratique.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
La TU Braunschweig a accueilli le Deep Learning Lab en 2025, où les étudiants ont développé des modèles explicatifs pour l'IA et les ont mis en pratique.

Les étudiants de la TU Braunschweig révolutionnent l’IA explicable !

Le Deep Learning Lab a eu lieu à l'Université technique de Braunschweig au semestre d'été 2025, c'est désormais la huitième édition de cet événement. Dans ce contexte, les étudiants ont travaillé intensivement sur le développement de méthodes permettant d'expliquer les modèles d'apprentissage profond. Un objectif central était de rendre plus transparents les réseaux de neurones, souvent critiqués comme des « boîtes noires », notamment dans des domaines d’application tels que l’analyse d’images médicales et la conduite autonome, où la traçabilité des décisions est essentielle. Fort TU de Brunswick En particulier, la visualisation d'objets a été examinée, un exemple étant la reconnaissance d'un bus à travers les contours, le pare-brise et le tablier avant.

Dans le contexte de ce débat sur l’explicabilité de l’intelligence artificielle (IA), le domaine de recherche « Explainable AI » (XAI) revêt une importance cruciale. Fraunhofer IESE souligne que l’interprétabilité des modèles va au-delà de leurs implications éthiques car elle soutient la pleine exploitation du potentiel de ces technologies. Les étudiants du Deep Learning Lab ont également travaillé sur le développement de « cartes de saillance », qui agissent comme des cartes thermiques et mettent en évidence les zones d'image pertinentes qui sont importantes pour la classification. Cette technique est particulièrement pertinente pour diagnostiquer les erreurs et promouvoir des approches innovantes en IA.

Applications pratiques et succès

Les participants au Deep Learning Lab ont travaillé avec l'ensemble de données d'images PASCAL VOC 2012 et ont évalué les explications des modèles sur la base de deux critères : la similitude avec les explications humaines et la compréhensibilité des décisions prises. L'efficacité des modèles était également importante et un prix spécial, le « Prix de l'environnement », a été décerné pour des exigences informatiques particulièrement faibles.

L'équipe gagnante, composée de Fabian Kollhoff, Jennifer Ly et Aruhan, a remporté le prix principal de 600 euros pour ses résultats impressionnants. Un prix supplémentaire de 450 euros a été décerné à Mohammad Rezaei Barzani et Nils-André Forjahn pour leur faible consommation de temps de calcul GPU tout en conservant des performances élevées. L'événement final a eu lieu le 11 juillet 2025, où les participants ont présenté leurs résultats et échangé des idées avec des sponsors et des experts. Les discussions sur l’avenir de l’IA explicable ont été un autre moment fort de l’événement.

Aperçu de la technologie

La création de cartes de saillance nécessite une compréhension approfondie des technologies sous-jacentes. Ces cartes mesurent le support spatial d'une classe donnée dans les images et constituent un outil essentiel pour comprendre la perception des couches convolutives en vision par ordinateur. Fort moyen Les cartes de saillance mettent en évidence les zones d'image cruciales et offrent des informations précieuses sur le fonctionnement des modèles sélectionnés. Un exemple en est le développement d'un modèle de classification binaire pour différencier les chats et les chiens, qui a atteint une précision de 87 % grâce à des techniques sophistiquées.

Malgré les défis inhérents au développement de systèmes d’IA interprétables, ces développements démontrent non seulement des progrès technologiques, mais également une voie claire vers l’utilisation éthique de l’intelligence artificielle et la maximisation de ses domaines d’application. L'approche créative des étudiants face à ces problèmes illustre le développement dynamique au sein du domaine de recherche et la recherche constante de nouvelles approches compréhensibles en matière d'IA. Les participants du jour du festival ont démontré leur profond engagement envers ce sujet passionnant et d'avenir à travers leurs présentations et discussions.