人工智能研究:提高解释过程可理解性的新方法!
帕德博恩大学的特殊研究领域“构建可解释性”研究人工智能的扩展解释模型。

人工智能研究:提高解释过程可理解性的新方法!
2025 年 9 月 10 日,比勒费尔德大学和帕德博恩大学的合作研究中心/Transregio 318“构建可解释性”将在经过四年的深入研究后进行盘点。在 Katharina Rohlfing 教授和 Philipp Cimiano 教授的指导下,重点研究人工智能 (AI) 的可理解性和可解释性。用户参与解释过程也特别重要,这一方面为研究提供了新的动力。此次合作共包括 20 个项目和 6 个综合小组,并于年底完成第一阶段融资。
该研究的一个关键结果是发现当前的“可解释的人工智能”系统通常将解释视为一条单行道。另一方面,理解的过程越来越被视为一种相互交流。因此,开发了“社交可解释人工智能”(sXAI)的新框架,其重点是实时根据用户反应调整解释。这些发展是由结合计算机科学、语言学和心理学的跨学科团队推动的。
解析解释过程
罗尔芬的团队检查了真实的对话,以确定解释过程是如何运作的。事实证明,解释通常以独白开始,但被解释者通过提出问题或表示困惑来积极参与。该分析还考虑了使用语言和手势来表达理解。这些发现表明,“支架”的概念——对学习的逐步支持——有助于优化解释过程。
这种开发的一个例子是 SNAPE 系统,它是在项目 A01 中设计的。它对人的反应做出敏感的反应,并根据各自的情况单独调整解释。这就是为什么研究人员越来越关注合作、社会适宜性和解释过程本身,以使人工智能系统更有效、更用户友好。
法律和技术挑战
挑战是多种多样的,尤其是在法律方面。越来越多的关于公司对其人工智能系统的责任的法律,例如欧洲的通用数据保护条例(GDPR),要求透明地共享有关决策过程的信息。可解释的人工智能 (XAI) 旨在使这些过程更易于理解,以促进信任并促进用户交互。
研究中已经建立了实现可解释性的技术,例如特征归因技术、反事实解释和显着性图。但人工智能模型的复杂性仍然是一个障碍。其中许多模型通常被视为“黑匣子”,这极大地限制了决策的透明度。此外,制定明确的指导方针来促进负责任地使用人工智能的必要性变得越来越明显。
总体而言,协同研究中心的研究表明,人工智能的可解释性不仅有技术维度,还有法律和社会维度。可解释性的观点需要发展,以鼓励积极的用户交互并关注最终用户的多样化需求。
