Vodni žigi v digitalni dobi: varnost ali iluzija?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Raziskovalci na Univerzi v Bochumu predstavljajo nove varnostne vrzeli v semantičnih vodnih žigih za vsebino, ki jo ustvari umetna inteligenca.

Forschende der Uni Bochum präsentieren neue Sicherheitslücken bei semantischen Wasserzeichen für KI-generierte Inhalte.
Raziskovalci na Univerzi v Bochumu predstavljajo nove varnostne vrzeli v semantičnih vodnih žigih za vsebino, ki jo ustvari umetna inteligenca.

Vodni žigi v digitalni dobi: varnost ali iluzija?

Hiter razvoj umetne inteligence (AI) je sprožil razcvet ustvarjanja vsebin, ki jih je pogosto težko ločiti od pravega dela. Zlasti pri generiranju slik in besedil je nujno treba jasno opredeliti njihov izvor. Raziskovalne skupine po vsem svetu delajo na rešitvah za prepoznavanje del, ustvarjenih z umetno inteligenco, in boj proti širjenju dezinformacij.

Osrednja tema te razprave je uporaba vodnih žigov. Te tehnologije bi lahko pomagale dokazati, ali je sliko ustvaril AI. V slikovnih datotekah se uporabljajo vidni in nevidni vodni žigi, pri čemer semantični vodni žigi veljajo za posebej robustne. So globoko zasidrani v procesu ustvarjanja slike in jih je zato težje odstraniti. Toda pred kratkim so raziskovalci kibernetske varnosti na Univerzi Ruhr Bochum odkrili varnostne vrzeli v teh semantičnih vodnih žigih. Rezultati so bili predstavljeni na konferenci Computer Vision and Pattern Recognition (CVPR) 15. junija 2025 v Nashvillu v ZDA. Andreas Müller, del raziskovalne skupine, pojasnjuje, da lahko napadalci ponaredijo ali odstranijo semantične vodne žige s preprostimi sredstvi. Njegova ekipa je razvila dve novi možnosti napada, ki ogrožata te tehnologije.

Digitalni vodni žigi za besedila

Vzporedno z razvojem na področju obdelave slik se znanstveniki s Fakultete za medije, Fraunhoferjevega inštituta za tehnologijo digitalnih medijev IDMT in Artefact Germany osredotočajo na digitalne vodne žige za pisna besedila in govorjeni jezik. Cilj vašega projekta "Lantmark" je narediti avtomatizirano vsebino prepoznavno, da bi okrepili preglednost in zanesljivost v digitalnih komunikacijskih prostorih. Raziskava se osredotoča predvsem na tehnologijo vodnega žiga besedila, ki skrije oznake v besedilu, da bi omogočili sledljivost izvora in morebitnih sprememb.

Ključni cilj tega projekta je spremeniti velike jezikovne modele (LLM) za digitalni podpis. Te jezikovne modele z blagovno znamko bi moralo biti mogoče razlikovati od tistih brez blagovne znamke, da bi v zgodnji fazi odkrili nepooblaščena poročila. Projekt z okoli 1,07 milijona evrov financira zvezno ministrstvo za izobraževanje in raziskave in je del ukrepov za razvoj varnih tehnologij v vse bolj omreženem svetu.

Tehnološki kontekst in razvoj

Potreba po vodnih žigih narašča, zlasti ker so meje med resničnostjo in fikcijo vse bolj zabrisane. Tehnologije, kot sta C2PA in SynthID, postajajo vse bolj pomembne za boljše prepoznavanje vsebine, ki jo ustvari umetna inteligenca. C2PA beleži izvor in obdelavo slik v metapodatke in ga že podpirajo priznani proizvajalci kamer, kot sta Leica in Canon. Meta, podjetje, ki stoji za Facebookom, prav tako načrtuje označevanje slik, ustvarjenih z umetno inteligenco, na svojih platformah.

Poleg tega Google dela na SynthID, postopku za nevidno označevanje slik, ustvarjenih z umetno inteligenco, ki je vtkana neposredno v slikovno strukturo. Cilj teh tehnologij je spodbujati pristnost vsebine in jih podpirajo pobude, kot je Content Authenticity Initiative (CAI), ki so jo sprožila podjetja, kot sta Adobe in Microsoft.

Razvoj teh tehnologij je ključnega pomena, zlasti ker se povečujejo pravni spori v zvezi z uporabo vsebin, ustvarjenih z umetno inteligenco. Na primer, Getty Images je tožil Stability AI zaradi uporabe več kot 12 milijonov slik iz svoje baze podatkov. Podobne obtožbe je proti OpenAI podal New York Times in poudaril nujnost vzpostavitve jasnih oznak za digitalno vsebino.