数字时代的水印:安全还是幻觉?
波鸿大学的研究人员提出了人工智能生成内容的语义水印的新安全漏洞。

数字时代的水印:安全还是幻觉?
人工智能(AI)的快速发展引发了内容创作的热潮,而这些内容往往很难与真实的作品区分开来。尤其是在生成图像和文本时,迫切需要明确其来源。世界各地的研究团队正在研究解决方案来识别人工智能生成的作品并打击错误信息的传播。
本次讨论的一个中心主题是水印的使用。这些技术可以帮助证明图像是否是由人工智能生成的。图像文件中使用可见和不可见水印,其中语义水印被认为特别强大。它们深深地嵌入到创建图像的过程中,因此被认为更难以删除。但最近,波鸿鲁尔大学的网络安全研究人员发现了这些语义水印中的安全漏洞。研究结果于 2025 年 6 月 15 日在美国纳什维尔举行的计算机视觉和模式识别 (CVPR) 会议上公布。研究团队成员 Andreas Müller 解释说,攻击者可以使用简单的方法伪造或删除语义水印。他的团队开发了两种威胁这些技术的新攻击选项。
文本的数字水印
在图像处理领域不断发展的同时,来自媒体学院、弗劳恩霍夫数字媒体技术研究所 IDMT 和 Artefact 德国的科学家们也致力于研究书面文本和口语的数字水印。您的项目“Lantmark”旨在使自动化内容可识别,以增强数字通信空间的透明度和可信度。该研究主要集中于文本水印技术,该技术将标记隐藏在文本中,以使来源和可能的变化可追溯。
该项目的一个关键目标是修改大型语言模型(LLM)以携带数字签名。应该可以将这些品牌语言模型与非品牌语言模型区分开来,以便及早发现未经授权的报告。该项目由联邦教育和研究部资助约 107 万欧元,是在日益网络化的世界中开发安全技术措施的一部分。
技术背景和发展
对水印的需求正在增长,尤其是当现实与虚构之间的界限变得越来越模糊时。 C2PA 和 SynthID 等技术对于更好地识别人工智能生成的内容变得越来越重要。 C2PA 在元数据中记录图像的来源和处理,并已得到 Leica 和 Canon 等知名相机制造商的支持。 Facebook 背后的公司 Meta 也计划在其平台上标记人工智能生成的图像。
此外,谷歌正在开发 SynthID,这是一种对人工智能生成的图像进行隐形标记的过程,该图像直接编织到像素结构中。这些技术旨在提高内容真实性,并得到 Adobe 和 Microsoft 等公司发起的内容真实性计划 (CAI) 等倡议的支持。
这些技术的发展至关重要,尤其是随着围绕人工智能生成内容的使用的法律纠纷不断增加。例如,Getty Images 起诉 Stability AI 使用其数据库中超过 1200 万张图像。 《纽约时报》也对 OpenAI 提出了类似的指控,凸显了为数字内容建立清晰标签的紧迫性。