Vodoznaky v digitálnom veku: bezpečnosť alebo ilúzia?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Výskumníci z Univerzity v Bochume prezentujú nové bezpečnostné medzery v sémantických vodoznakoch pre obsah generovaný AI.

Forschende der Uni Bochum präsentieren neue Sicherheitslücken bei semantischen Wasserzeichen für KI-generierte Inhalte.
Výskumníci z Univerzity v Bochume prezentujú nové bezpečnostné medzery v sémantických vodoznakoch pre obsah generovaný AI.

Vodoznaky v digitálnom veku: bezpečnosť alebo ilúzia?

Rýchly rozvoj umelej inteligencie (AI) vyvolal boom tvorby obsahu, ktorý je často ťažké odlíšiť od skutočnej práce. Najmä pri generovaní obrázkov a textov je naliehavá potreba jasne identifikovať ich pôvod. Výskumné tímy po celom svete pracujú na riešeniach na identifikáciu diel generovaných AI a boj proti šíreniu dezinformácií.

Ústrednou témou tejto diskusie je používanie vodoznakov. Tieto technológie by mohli pomôcť dokázať, či obrázok vytvorila AI. V obrazových súboroch sa používajú viditeľné a neviditeľné vodoznaky, pričom sémantické vodoznaky sa považujú za obzvlášť robustné. Sú hlboko zakorenené v procese vytvárania obrazu, a preto sa považujú za ťažšie odstrániteľné. Nedávno však výskumníci kybernetickej bezpečnosti na Ruhr University Bochum objavili bezpečnostné medzery v týchto sémantických vodoznakoch. Výsledky boli prezentované na konferencii Computer Vision and Pattern Recognition (CVPR) 15. júna 2025 v Nashville v USA. Andreas Müller, súčasť výskumného tímu, vysvetľuje, že útočníci môžu sfalšovať alebo odstrániť sémantické vodoznaky pomocou jednoduchých prostriedkov. Jeho tím vyvinul dve nové možnosti útoku, ktoré ohrozujú tieto technológie.

Digitálne vodoznaky pre texty

Súbežne s vývojom v oblasti spracovania obrazu sa vedci z Fakulty médií, Fraunhofer Institute for Digital Media Technology IDMT a Artefact Germany sústreďujú na digitálne vodoznaky pre písané texty a hovorený jazyk. Váš projekt „Lantmark“ sa zameriava na to, aby bol automatizovaný obsah rozpoznateľný, aby sa posilnila transparentnosť a dôveryhodnosť v digitálnych komunikačných priestoroch. Výskum sa sústreďuje predovšetkým na technológiu textového vodoznaku, ktorý v texte skryje označenia, aby sa dal vysledovať pôvod a prípadné zmeny.

Kľúčovým cieľom tohto projektu je upraviť veľké jazykové modely (LLM) na digitálny podpis. Malo by byť možné rozlíšiť tieto značkové jazykové modely od neznačkových, aby bolo možné včas odhaliť neoprávnené hlásenia. Projekt financuje približne 1,07 milióna eur federálne ministerstvo školstva a výskumu a je súčasťou opatrení na rozvoj bezpečných technológií v čoraz viac prepojenom svete.

Technologický kontext a vývoj

Potreba vodoznakov rastie, najmä keď sa hranice medzi realitou a fikciou čoraz viac stierajú. Technológie ako C2PA a SynthID sú čoraz dôležitejšie na lepšie rozpoznanie obsahu generovaného AI. C2PA zaznamenáva pôvod a spracovanie obrázkov v metadátach a už ho podporujú renomovaní výrobcovia fotoaparátov ako Leica a Canon. Meta, spoločnosť stojaca za Facebookom, tiež plánuje na svojich platformách označovať obrázky generované AI.

Okrem toho Google pracuje na SynthID, čo je proces neviditeľného označovania obrázkov generovaných AI, ktorý je votkaný priamo do štruktúry pixelov. Tieto technológie sú zamerané na podporu autenticity obsahu a sú podporované iniciatívami, ako je iniciatíva Content Authenticity Initiative (CAI), ktorú spustili spoločnosti ako Adobe a Microsoft.

Rozvoj týchto technológií je kľúčový, najmä preto, že pribúdajú právne spory týkajúce sa používania obsahu generovaného AI. Napríklad spoločnosť Getty Images zažalovala AI Stability za použitie viac ako 12 miliónov obrázkov zo svojej databázy. Podobné obvinenia proti OpenAI vzniesli aj New York Times, čo zdôraznilo naliehavosť vytvorenia jasných označení pre digitálny obsah.