Vízjelek a digitális korban: biztonság vagy illúzió?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

A Bochumi Egyetem kutatói új biztonsági hiányosságokat mutatnak be a mesterséges intelligencia által generált tartalmak szemantikai vízjeleiben.

Forschende der Uni Bochum präsentieren neue Sicherheitslücken bei semantischen Wasserzeichen für KI-generierte Inhalte.
A Bochumi Egyetem kutatói új biztonsági hiányosságokat mutatnak be a mesterséges intelligencia által generált tartalmak szemantikai vízjeleiben.

Vízjelek a digitális korban: biztonság vagy illúzió?

A mesterséges intelligencia (AI) rohamos fejlődése fellendülést indított el az olyan tartalmak létrehozásában, amelyeket gyakran nehéz megkülönböztetni a valódi munkától. Különösen a képek és szövegek generálásakor sürgős szükség van azok eredetének egyértelmű azonosítására. Kutatócsoportok szerte a világon olyan megoldásokon dolgoznak, amelyek segítségével azonosítani lehet a mesterséges intelligencia által generált alkotásokat, és leküzdeni a téves információk terjedését.

A beszélgetés központi témája a vízjelek használata. Ezek a technológiák segíthetnek bizonyítani, hogy egy képet mesterséges intelligencia generált-e. A képfájlokban látható és láthatatlan vízjeleket használnak, a szemantikus vízjeleket pedig különösen robusztusnak tartják. Mélyen beágyazódnak a képalkotás folyamatába, ezért nehezebben eltávolíthatók. A közelmúltban azonban a Bochumi Ruhr Egyetem kiberbiztonsági kutatói biztonsági hiányosságokat fedeztek fel ezekben a szemantikai vízjelekben. Az eredményeket a Computer Vision and Pattern Recognition (CVPR) konferencián mutatták be 2025. június 15-én az egyesült államokbeli Nashville-ben. Andreas Müller, a kutatócsoport tagja elmagyarázza, hogy a támadók egyszerű eszközökkel hamisíthatnak vagy távolíthatnak el szemantikai vízjeleket. Csapata két új támadási lehetőséget fejlesztett ki, amelyek veszélyeztetik ezeket a technológiákat.

Digitális vízjelek szövegekhez

A képfeldolgozás területén végzett fejlesztésekkel párhuzamosan a Médiatudományi Kar, a Fraunhofer Institute for Digital Media Technology IDMT és az Artefact Germany tudósai az írott szövegek és a beszélt nyelv digitális vízjeleire koncentrálnak. A „Lantmark” projekt célja az automatizált tartalom felismerhetővé tétele annak érdekében, hogy erősítse az átláthatóságot és a megbízhatóságot a digitális kommunikációs terekben. A kutatás elsősorban a szöveges vízjel technológiára fókuszál, amely a jelöléseket a szövegben rejti el annak érdekében, hogy az eredet és az esetleges változások nyomon követhetőek legyenek.

A projekt egyik fő célja a nagy nyelvi modellek (LLM) módosítása, hogy digitális aláírást hordozzanak. Lehetővé kell tenni ezeknek a márkás nyelvi modelleknek a megkülönböztetését a nem márkás nyelvi modellektől annak érdekében, hogy a jogosulatlan jelentéseket korai szakaszban észlelni lehessen. A projektet a Szövetségi Oktatási és Kutatási Minisztérium mintegy 1,07 millió euróval finanszírozza, és része a biztonságos technológiák fejlesztését célzó intézkedéseknek az egyre inkább hálózatosodott világban.

Technológiai kontextus és fejlesztések

A vízjelek iránti igény növekszik, különösen akkor, amikor a valóság és a fikció közötti határvonalak egyre inkább elmosódnak. Az olyan technológiák, mint a C2PA és a SynthID, egyre fontosabbá válnak az AI által generált tartalmak jobb felismeréséhez. A C2PA rögzíti a képek eredetét és feldolgozását a metaadatokban, és már olyan neves fényképezőgépgyártók is támogatják, mint a Leica és a Canon. A Facebook mögött álló Meta cég azt is tervezi, hogy az AI által generált képeket felcímkézi platformjain.

Ezenkívül a Google a SynthID-n dolgozik, amely a mesterséges intelligencia által generált képek láthatatlan címkézésére szolgáló folyamat, amelyet közvetlenül a pixelszerkezetbe szőnek. Ezek a technológiák célja a tartalom hitelességének előmozdítása, és olyan kezdeményezések támogatják őket, mint a Content Authenticity Initiative (CAI), amelyet olyan vállalatok indítottak el, mint az Adobe és a Microsoft.

Ezeknek a technológiáknak a fejlesztése kulcsfontosságú, különösen az AI által generált tartalmak használatával kapcsolatos jogi viták növekedése miatt. Például a Getty Images beperelte a Stability AI-t, amiért több mint 12 millió képet használ az adatbázisából. Hasonló vádakat fogalmazott meg a New York Times az OpenAI ellen, hangsúlyozva a digitális tartalmak egyértelmű címkéinek létrehozásának sürgősségét.