Filigrane nell'era digitale: sicurezza o illusione?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

I ricercatori dell’Università di Bochum presentano nuove lacune di sicurezza nelle filigrane semantiche per i contenuti generati dall’intelligenza artificiale.

Forschende der Uni Bochum präsentieren neue Sicherheitslücken bei semantischen Wasserzeichen für KI-generierte Inhalte.
I ricercatori dell’Università di Bochum presentano nuove lacune di sicurezza nelle filigrane semantiche per i contenuti generati dall’intelligenza artificiale.

Filigrane nell'era digitale: sicurezza o illusione?

Il rapido sviluppo dell’intelligenza artificiale (AI) ha innescato un boom nella creazione di contenuti che spesso è difficile distinguere dal lavoro reale. Soprattutto quando si generano immagini e testi, è urgente identificarne chiaramente l’origine. Gruppi di ricerca in tutto il mondo stanno lavorando a soluzioni per identificare le opere generate dall’intelligenza artificiale e combattere la diffusione della disinformazione.

Un argomento centrale in questa discussione è l'uso delle filigrane. Queste tecnologie potrebbero aiutare a dimostrare se un’immagine è stata generata da un’intelligenza artificiale. Nei file di immagine vengono utilizzate filigrane visibili e invisibili, mentre le filigrane semantiche sono considerate particolarmente robuste. Sono profondamente radicati nel processo di creazione di un'immagine e sono quindi considerati più difficili da rimuovere. Ma recentemente, i ricercatori di sicurezza informatica dell’Università della Ruhr di Bochum hanno scoperto lacune di sicurezza in queste filigrane semantiche. I risultati sono stati presentati alla conferenza Computer Vision and Pattern Recognition (CVPR) il 15 giugno 2025 a Nashville, negli Stati Uniti. Andreas Müller, membro del gruppo di ricerca, spiega che gli aggressori possono creare o rimuovere filigrane semantiche con mezzi semplici. Il suo team ha sviluppato due nuove opzioni di attacco che minacciano queste tecnologie.

Filigrane digitali per testi

Parallelamente agli sviluppi nel campo dell'elaborazione delle immagini, gli scienziati della Facoltà di Media, l'Istituto Fraunhofer per la tecnologia dei media digitali IDMT e Artefact Germany si stanno concentrando sulle filigrane digitali per testi scritti e lingua parlata. Il tuo progetto “Lantmark” mira a rendere riconoscibili i contenuti automatizzati per rafforzare la trasparenza e l’affidabilità negli spazi di comunicazione digitale. La ricerca si concentra principalmente sulla tecnologia text watermarking, che nasconde i segni nel testo in modo da renderne tracciabile l'origine e le eventuali modifiche.

Un obiettivo chiave di questo progetto è modificare i modelli linguistici di grandi dimensioni (LLM) per portare una firma digitale. Dovrebbe essere possibile distinguere questi modelli linguistici di marca da quelli senza marchio al fine di individuare tempestivamente le segnalazioni non autorizzate. Il progetto è finanziato con circa 1,07 milioni di euro dal Ministero federale dell'Istruzione e della Ricerca e fa parte delle misure per lo sviluppo di tecnologie sicure in un mondo sempre più interconnesso.

Contesto tecnologico e sviluppi

La necessità di filigrane è in crescita, soprattutto perché i confini tra realtà e finzione diventano sempre più sfumati. Tecnologie come C2PA e SynthID stanno diventando sempre più importanti per riconoscere meglio i contenuti generati dall'intelligenza artificiale. C2PA registra l'origine e l'elaborazione delle immagini nei metadati ed è già supportato da rinomati produttori di fotocamere come Leica e Canon. Meta, la società dietro Facebook, prevede anche di etichettare le immagini generate dall'intelligenza artificiale sulle sue piattaforme.

Inoltre, Google sta lavorando su SynthID, un processo per l’etichettatura invisibile delle immagini generate dall’intelligenza artificiale che è intrecciato direttamente nella struttura dei pixel. Queste tecnologie mirano a promuovere l’autenticità dei contenuti e sono supportate da iniziative come la Content Authenticity Initiative (CAI), lanciata da aziende come Adobe e Microsoft.

Lo sviluppo di queste tecnologie è cruciale, soprattutto perché aumentano le controversie legali sull’uso dei contenuti generati dall’intelligenza artificiale. Ad esempio, Getty Images ha citato in giudizio Stability AI per aver utilizzato oltre 12 milioni di immagini dal suo database. Accuse simili sono state mosse contro OpenAI dal New York Times, sottolineando l’urgenza di stabilire etichette chiare per i contenuti digitali.