Vattenstämplar i den digitala tidsåldern: säkerhet eller illusion?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Forskare vid universitetet i Bochum presenterar nya säkerhetsluckor i semantiska vattenstämplar för AI-genererat innehåll.

Forschende der Uni Bochum präsentieren neue Sicherheitslücken bei semantischen Wasserzeichen für KI-generierte Inhalte.
Forskare vid universitetet i Bochum presenterar nya säkerhetsluckor i semantiska vattenstämplar för AI-genererat innehåll.

Vattenstämplar i den digitala tidsåldern: säkerhet eller illusion?

Den snabba utvecklingen av artificiell intelligens (AI) har utlöst en boom i skapandet av innehåll som ofta är svårt att skilja från verkligt arbete. Särskilt när man skapar bilder och texter finns det ett akut behov av att tydligt identifiera deras ursprung. Forskningsteam runt om i världen arbetar med lösningar för att identifiera AI-genererade verk och bekämpa spridningen av desinformation.

Ett centralt ämne i denna diskussion är användningen av vattenstämplar. Dessa tekniker kan hjälpa till att bevisa om en bild genererades av en AI. Synliga och osynliga vattenstämplar används i bildfiler, där semantiska vattenstämplar anses vara särskilt robusta. De är djupt inbäddade i processen att skapa en bild och anses därför vara svårare att ta bort. Men nyligen upptäckte cybersäkerhetsforskare vid Ruhr University Bochum säkerhetsluckor i dessa semantiska vattenstämplar. Resultaten presenterades vid konferensen Computer Vision and Pattern Recognition (CVPR) den 15 juni 2025 i Nashville, USA. Andreas Müller, en del av forskargruppen, förklarar att angripare kan förfalska eller ta bort semantiska vattenstämplar med enkla medel. Hans team har utvecklat två nya attackalternativ som hotar dessa tekniker.

Digitala vattenstämplar för texter

Parallellt med utvecklingen inom bildbehandlingsområdet koncentrerar sig forskare från Mediafakulteten, Fraunhofer Institute for Digital Media Technology IDMT och Artefact Germany på digitala vattenstämplar för skrivna texter och talat språk. Ditt projekt "Lantmark" syftar till att göra automatiserat innehåll igenkännligt för att stärka transparens och trovärdighet i digitala kommunikationsutrymmen. Forskningen fokuserar främst på textvattenmärkningsteknik, som döljer markeringar i text för att göra ursprung och eventuella förändringar spårbara.

Ett huvudmål med detta projekt är att modifiera stora språkmodeller (LLM) för att bära en digital signatur. Det bör vara möjligt att särskilja dessa varumärkesspråksmodeller från icke-märkta för att kunna upptäcka obehöriga rapporter i ett tidigt skede. Projektet finansieras med cirka 1,07 miljoner euro av det federala utbildnings- och forskningsministeriet och är en del av åtgärder för att utveckla säker teknik i en alltmer nätverksansluten värld.

Teknologisk kontext och utveckling

Behovet av vattenstämplar växer, särskilt när gränserna mellan verklighet och fiktion blir allt mer suddiga. Tekniker som C2PA och SynthID blir allt viktigare för att bättre känna igen AI-genererat innehåll. C2PA registrerar ursprung och bearbetning av bilder i metadata och stöds redan av kända kameratillverkare som Leica och Canon. Meta, företaget bakom Facebook, planerar också att märka AI-genererade bilder på sina plattformar.

Dessutom arbetar Google med SynthID, en process för osynlig märkning av AI-genererade bilder som vävs in direkt i pixelstrukturen. Dessa tekniker syftar till att främja innehållets autenticitet och stöds av initiativ som Content Authenticity Initiative (CAI), som lanserats av företag som Adobe och Microsoft.

Utvecklingen av dessa tekniker är avgörande, särskilt eftersom juridiska tvister kring användningen av AI-genererat innehåll ökar. Till exempel stämde Getty Images Stability AI för dess användning av över 12 miljoner bilder från sin databas. Liknande anklagelser riktades mot OpenAI av New York Times, vilket understryker vikten av att upprätta tydliga etiketter för digitalt innehåll.