Vannmerker i den digitale tidsalderen: sikkerhet eller illusjon?
Forskere ved University of Bochum presenterer nye sikkerhetshull i semantiske vannmerker for AI-generert innhold.

Vannmerker i den digitale tidsalderen: sikkerhet eller illusjon?
Den raske utviklingen av kunstig intelligens (AI) har utløst en boom i å lage innhold som ofte er vanskelig å skille fra ekte arbeid. Spesielt ved generering av bilder og tekster er det et presserende behov for å tydelig identifisere deres opprinnelse. Forskningsteam over hele verden jobber med løsninger for å identifisere AI-genererte verk og bekjempe spredningen av feilinformasjon.
Et sentralt tema i denne diskusjonen er bruken av vannmerker. Disse teknologiene kan bidra til å bevise om et bilde ble generert av en AI. Synlige og usynlige vannmerker brukes i bildefiler, og semantiske vannmerker anses som spesielt robuste. De er dypt innebygd i prosessen med å lage et bilde og anses derfor som vanskeligere å fjerne. Men nylig oppdaget cybersikkerhetsforskere ved Ruhr University Bochum sikkerhetshull i disse semantiske vannmerkene. Resultatene ble presentert på konferansen Computer Vision and Pattern Recognition (CVPR) 15. juni 2025 i Nashville, USA. Andreas Müller, en del av forskerteamet, forklarer at angripere kan forfalske eller fjerne semantiske vannmerker ved hjelp av enkle midler. Teamet hans har utviklet to nye angrepsalternativer som truer disse teknologiene.
Digitale vannmerker for tekster
Parallelt med utviklingen innen bildebehandling, konsentrerer forskere fra Mediefakultetet, Fraunhofer Institute for Digital Media Technology IDMT og Artefact Germany seg om digitale vannmerker for skriftlige tekster og talespråk. Ditt prosjekt «Lantmark» har som mål å gjøre automatisert innhold gjenkjennelig for å styrke åpenhet og pålitelighet i digitale kommunikasjonsrom. Forskningen fokuserer først og fremst på tekstvannmerkingsteknologi, som skjuler markeringer i tekst for å gjøre opprinnelsen og eventuelle endringer sporbare.
Et hovedmål med dette prosjektet er å modifisere store språkmodeller (LLM) for å bære en digital signatur. Det bør være mulig å skille disse merkede språkmodellene fra ikke-merkede for å oppdage uautoriserte rapporter på et tidlig tidspunkt. Prosjektet er finansiert med rundt 1,07 millioner euro av det føderale utdannings- og forskningsdepartementet og er en del av tiltak for å utvikle sikre teknologier i en stadig mer nettverksbasert verden.
Teknologisk kontekst og utvikling
Behovet for vannmerker vokser, spesielt ettersom grensene mellom virkelighet og fiksjon blir stadig mer utydelige. Teknologier som C2PA og SynthID blir stadig viktigere for bedre å gjenkjenne AI-generert innhold. C2PA registrerer opprinnelsen og behandlingen av bilder i metadataene og støttes allerede av anerkjente kameraprodusenter som Leica og Canon. Meta, selskapet bak Facebook, planlegger også å merke AI-genererte bilder på sine plattformer.
I tillegg jobber Google med SynthID, en prosess for usynlig merking av AI-genererte bilder som er vevd direkte inn i pikselstrukturen. Disse teknologiene har som mål å fremme innholdets autentisitet og støttes av initiativer som Content Authenticity Initiative (CAI), lansert av selskaper som Adobe og Microsoft.
Utviklingen av disse teknologiene er avgjørende, spesielt ettersom juridiske tvister rundt bruken av AI-generert innhold øker. For eksempel saksøkte Getty Images Stability AI for bruken av over 12 millioner bilder fra databasen. Lignende påstander ble fremsatt mot OpenAI av New York Times, og understreket det haster med å etablere klare etiketter for digitalt innhold.