Le filigrane à l’ère numérique : sécurité ou illusion ?
Des chercheurs de l’Université de Bochum présentent de nouvelles failles de sécurité dans les filigranes sémantiques des contenus générés par l’IA.

Le filigrane à l’ère numérique : sécurité ou illusion ?
Le développement rapide de l’intelligence artificielle (IA) a déclenché un boom de la création de contenus souvent difficiles à distinguer du travail réel. Il est particulièrement urgent d’identifier clairement leur origine lors de la génération d’images et de textes. Des équipes de recherche du monde entier travaillent sur des solutions pour identifier les œuvres générées par l’IA et lutter contre la propagation de la désinformation.
Un sujet central de cette discussion est l’utilisation des filigranes. Ces technologies pourraient aider à prouver si une image a été générée par une IA. Des filigranes visibles et invisibles sont utilisés dans les fichiers image, les filigranes sémantiques étant considérés comme particulièrement robustes. Ils sont profondément ancrés dans le processus de création d’une image et sont donc considérés comme plus difficiles à supprimer. Mais récemment, des chercheurs en cybersécurité de l’université de la Ruhr à Bochum ont découvert des failles de sécurité dans ces filigranes sémantiques. Les résultats ont été présentés lors de la conférence Computer Vision and Pattern Recognition (CVPR) le 15 juin 2025 à Nashville, aux États-Unis. Andreas Müller, membre de l'équipe de recherche, explique que les attaquants peuvent falsifier ou supprimer des filigranes sémantiques par des moyens simples. Son équipe a développé deux nouvelles options d'attaque qui menacent ces technologies.
Filigranes numériques pour les textes
Parallèlement aux développements dans le domaine du traitement d'images, des scientifiques de la Faculté des médias, de l'Institut Fraunhofer pour la technologie des médias numériques IDMT et d'Artefact Germany se concentrent sur les filigranes numériques pour les textes écrits et le langage parlé. Votre projet « Lantmark » vise à rendre reconnaissable le contenu automatisé afin de renforcer la transparence et la fiabilité dans les espaces de communication numérique. La recherche se concentre principalement sur la technologie de tatouage de texte, qui masque les marquages dans le texte afin de rendre traçables l'origine et les éventuelles modifications.
L'un des objectifs clés de ce projet est de modifier les grands modèles de langage (LLM) pour porter une signature numérique. Il devrait être possible de distinguer ces modèles linguistiques de marque de ceux sans marque afin de détecter à un stade précoce les rapports non autorisés. Le projet est financé à hauteur d'environ 1,07 million d'euros par le ministère fédéral de l'Éducation et de la Recherche et fait partie des mesures visant à développer des technologies sécurisées dans un monde de plus en plus interconnecté.
Contexte et évolutions technologiques
Le besoin de filigranes augmente, d’autant plus que les frontières entre réalité et fiction deviennent de plus en plus floues. Les technologies telles que C2PA et SynthID deviennent de plus en plus importantes pour mieux reconnaître le contenu généré par l'IA. C2PA enregistre l'origine et le traitement des images dans les métadonnées et est déjà pris en charge par des fabricants d'appareils photo renommés tels que Leica et Canon. Meta, la société derrière Facebook, prévoit également d'étiqueter les images générées par l'IA sur ses plateformes.
De plus, Google travaille sur SynthID, un processus d'étiquetage invisible des images générées par l'IA qui est directement intégré à la structure des pixels. Ces technologies visent à promouvoir l'authenticité du contenu et sont soutenues par des initiatives telles que la Content Authenticity Initiative (CAI), lancée par des sociétés comme Adobe et Microsoft.
Le développement de ces technologies est crucial, d’autant plus que les litiges juridiques autour de l’utilisation des contenus générés par l’IA se multiplient. Par exemple, Getty Images a poursuivi Stability AI pour avoir utilisé plus de 12 millions d’images de sa base de données. Des allégations similaires ont été formulées contre OpenAI par le New York Times, soulignant l’urgence d’établir des étiquettes claires pour le contenu numérique.