聚焦人工智能发展:专家要求明确的规则和道德标准!
2025 年 8 月 18 日,UNI Bucerius 的专家将讨论人工智能监管、道德问题和创新挑战。

聚焦人工智能发展:专家要求明确的规则和道德标准!
2025 年 8 月 18 日,一场热烈的小组讨论讨论了人工智能 (AI) 监管的核心问题。创新研究员、联邦政府研究与创新专家委员会前主席迪特玛·哈霍夫指出,人工智能领域的创新力量引发了众多分配问题。他特别批评权力集中在少数大公司,尤其是在硅谷,这被认为比自主超级智能的想法更危险。这种权力不对称需要采取紧急行动。
哈佛大学肯尼迪学院教授马蒂亚斯·里斯 (Mathias Risse) 对开发商接受风险的行为进行了道德哲学批评,对讨论进行了补充。他指出,在人工智能开发中,人们接受 6% 的“灾难”风险,这在航空等其他领域是不可接受的。这一观点凸显了人工智能开发和应用中的伦理挑战。
弥补监管漏洞
讨论中的一个核心观点是政治、法律和公民社会需要变得更有行动能力。哈霍夫主张制定欧洲解决方案来监管人工智能,该解决方案不会抑制创新,并在透明度、责任和数据访问方面制定明确的规则。讨论仍在继续,结果发现尚未有任何国家针对人工智能采取全面的法律框架,导致监管法规参差不齐。这些不充分的法律要求是有效监管的障碍。
监管问题尤其具有爆炸性,因为人工智能带来了复杂性,并且涉及处理大量且常常令人困惑的数据。如何 bpb.de 解释说,现有法规不足以最大限度地减少相关风险并利用机会。人工智能监管尚无国际指南,难以有效应对人工智能实践的挑战和风险。
全球视角和标准
讨论的另一个中心话题是人工智能监管的国际层面。联合国教科文组织提出了关于人工智能使用合乎道德的建议,为促进人权和基本自由奠定了国际法律基础。该建议提供了一个全球参考框架,其中包括隐私、透明度、可解释性和非歧视等价值观 联合国教科文组织网站 。
人工智能与可持续发展之间的联系也尤为重要。要求在使用人工智能时,人权不仅要得到尊重,更要积极促进。在这种背景下,强调了预防原则:如果对负面后果有合理的担忧,则不应进一步追求人工智能的某些应用。
道德判断、政治意愿和社会辩论对于人工智能的未来使用至关重要。正式讨论结束后,大家一边吃着椒盐卷饼,一边喝着葡萄酒,交换了对人工智能未来的进一步思考。很明显,教育和数字素养以及关于人工智能挑战的积极公开辩论至关重要。