布伦瑞克工业大学的学生正在彻底改变可解释的人工智能!
布伦瑞克工业大学于 2025 年设立了深度学习实验室,学生们在此开发人工智能的解释模型并在实践中实施。

布伦瑞克工业大学的学生正在彻底改变可解释的人工智能!
深度学习实验室于 2025 年夏季学期在布伦瑞克工业大学举行,现已是该活动的第八届。在此背景下,学生们集中精力开发解释深度学习模型的方法。一个中心目标是使经常被批评为“黑匣子”的神经网络变得更加透明,特别是在医学图像分析和自动驾驶等应用领域,其中决策的可追溯性至关重要。大声 布伦瑞克工业大学 特别是,对物体的可视化进行了检查,其中一个例子是通过轮廓、挡风玻璃和前裙板识别一辆公共汽车。
在关于人工智能(AI)可解释性的讨论中,“可解释人工智能”(XAI)研究领域至关重要。 弗劳恩霍夫IESE 强调模型的可解释性超出了其伦理含义,因为它支持充分利用这些技术的潜力。深度学习实验室的学生还致力于开发“显着图”,它充当热图并突出显示对分类很重要的相关图像区域。这项技术对于诊断错误和促进人工智能的创新方法特别重要。
实际应用和成功
深度学习实验室的参与者使用 PASCAL VOC 2012 图像数据集,并根据两个标准评估模型的解释:与人类解释的相似性以及所做决策的可理解性。模型的效率也很重要,并且因计算要求特别低而颁发了“环境奖”特别奖。
由 Fabian Kollhoff、Jennifer Ly 和 Aruhan 组成的获胜团队凭借骄人的成绩赢得了 600 欧元的大奖。 Mohammad Rezaei Barzani 和 Nils-André Forjahn 因 GPU 计算时间消耗低且保持高性能而获得了 450 欧元的进一步奖励。决赛于 2025 年 7 月 11 日举行,参赛者展示了他们的成果,并与赞助商和专家交换了意见。关于可解释人工智能的未来的讨论是本次活动的另一个亮点。
对技术的见解
创建显着性图需要深入了解底层技术。这些图测量图像中给定类别的空间支持,是理解计算机视觉中卷积层感知的重要工具。大声 中等的 显着图突出显示关键图像区域,并提供有关所选模型如何工作的宝贵见解。一个例子是开发了区分猫和狗的二元分类模型,凭借先进的技术,该模型的准确率达到了 87%。
尽管开发可解释的人工智能系统存在固有的挑战,但这些发展不仅展示了技术的进步,而且还为人工智能的道德使用和最大化其应用领域提供了一条明确的道路。学生们对这些问题的创造性方法体现了研究领域的动态发展以及对人工智能新的、可理解的方法的不断探索。节日当天的参与者通过演讲和讨论展示了他们对这一激动人心且具有前瞻性的主题的坚定承诺。