Vandmærker i den digitale tidsalder: sikkerhed eller illusion?
Forskere ved University of Bochum præsenterer nye sikkerhedshuller i semantiske vandmærker for AI-genereret indhold.

Vandmærker i den digitale tidsalder: sikkerhed eller illusion?
Den hurtige udvikling af kunstig intelligens (AI) har udløst et boom i skabelsen af indhold, som ofte er svært at skelne fra rigtigt arbejde. Især ved generering af billeder og tekster er der et presserende behov for klart at identificere deres oprindelse. Forskerhold rundt om i verden arbejder på løsninger til at identificere AI-genererede værker og bekæmpe spredningen af misinformation.
Et centralt emne i denne diskussion er brugen af vandmærker. Disse teknologier kunne hjælpe med at bevise, om et billede blev genereret af en AI. Synlige og usynlige vandmærker bruges i billedfiler, hvor semantiske vandmærker anses for at være særligt robuste. De er dybt indlejret i processen med at skabe et billede og anses derfor for at være sværere at fjerne. Men for nylig opdagede cybersikkerhedsforskere ved Ruhr University Bochum sikkerhedshuller i disse semantiske vandmærker. Resultaterne blev præsenteret på konferencen Computer Vision and Pattern Recognition (CVPR) den 15. juni 2025 i Nashville, USA. Andreas Müller, en del af forskerholdet, forklarer, at angribere kan forfalske eller fjerne semantiske vandmærker ved hjælp af simple midler. Hans team har udviklet to nye angrebsmuligheder, der truer disse teknologier.
Digitale vandmærker til tekster
Parallelt med udviklingen inden for billedbehandling, koncentrerer forskere fra Det Mediefakultet, Fraunhofer Institut for Digital Medieteknologi IDMT og Artefact Germany sig om digitale vandmærker til skrevne tekster og talesprog. Dit projekt "Lantmark" har til formål at gøre automatiseret indhold genkendeligt for at styrke gennemsigtighed og troværdighed i digitale kommunikationsrum. Forskningen fokuserer primært på tekstvandmærketeknologi, som skjuler markeringer i tekst for at gøre oprindelsen og eventuelle ændringer sporbare.
Et centralt mål med dette projekt er at modificere store sprogmodeller (LLM'er) til at bære en digital signatur. Det bør være muligt at skelne disse mærkede sprogmodeller fra ikke-mærkede sprogmodeller for at opdage uautoriserede indberetninger på et tidligt tidspunkt. Projektet er finansieret med omkring 1,07 millioner euro af Forbundsministeriet for Uddannelse og Forskning og er en del af foranstaltninger til at udvikle sikre teknologier i en stadig mere netværksforbundet verden.
Teknologisk kontekst og udvikling
Behovet for vandmærker vokser, især efterhånden som grænserne mellem virkelighed og fiktion bliver mere og mere udviskede. Teknologier som C2PA og SynthID bliver stadig vigtigere for bedre at kunne genkende AI-genereret indhold. C2PA registrerer oprindelsen og behandlingen af billeder i metadataene og er allerede understøttet af anerkendte kameraproducenter som Leica og Canon. Meta, virksomheden bag Facebook, planlægger også at mærke AI-genererede billeder på sine platforme.
Derudover arbejder Google på SynthID, en proces til usynlig mærkning af AI-genererede billeder, der er vævet direkte ind i pixelstrukturen. Disse teknologier har til formål at fremme indholdets autenticitet og understøttes af initiativer som Content Authenticity Initiative (CAI), lanceret af virksomheder som Adobe og Microsoft.
Udviklingen af disse teknologier er afgørende, især da juridiske tvister omkring brugen af AI-genereret indhold stiger. For eksempel sagsøgte Getty Images Stability AI for dets brug af over 12 millioner billeder fra deres database. Lignende påstande blev fremsat mod OpenAI af New York Times, hvilket understreger, at det haster med at etablere klare etiketter for digitalt indhold.