Filigrane în era digitală: securitate sau iluzie?
Cercetătorii de la Universitatea din Bochum prezintă noi lacune de securitate în filigranele semantice pentru conținutul generat de AI.

Filigrane în era digitală: securitate sau iluzie?
Dezvoltarea rapidă a inteligenței artificiale (AI) a declanșat un boom în crearea de conținut care este adesea greu de distins de munca reală. Mai ales atunci când se generează imagini și texte, există o nevoie urgentă de a identifica clar originea acestora. Echipele de cercetare din întreaga lume lucrează la soluții pentru a identifica lucrările generate de AI și pentru a combate răspândirea dezinformării.
Un subiect central în această discuție este utilizarea filigranelor. Aceste tehnologii ar putea ajuta să demonstreze dacă o imagine a fost generată de o IA. Filigranele vizibile și invizibile sunt utilizate în fișierele de imagine, filigranele semantice fiind considerate deosebit de robuste. Ele sunt profund încorporate în procesul de creare a unei imagini și, prin urmare, sunt considerate mai dificil de îndepărtat. Dar recent, cercetătorii în domeniul securității cibernetice de la Universitatea Ruhr din Bochum au descoperit lacune de securitate în aceste filigrane semantice. Rezultatele au fost prezentate la conferința Computer Vision and Pattern Recognition (CVPR) din 15 iunie 2025, în Nashville, SUA. Andreas Müller, parte a echipei de cercetare, explică că atacatorii pot falsifica sau elimina filigrane semantice folosind mijloace simple. Echipa sa a dezvoltat două noi opțiuni de atac care amenință aceste tehnologii.
Filigrane digitale pentru texte
În paralel cu evoluțiile din domeniul prelucrării imaginilor, oamenii de știință de la Facultatea de Media, Institutul Fraunhofer pentru Tehnologia Digital Media IDMT și Artefact Germania se concentrează asupra filigranelor digitale pentru textele scrise și limba vorbită. Proiectul tău „Lantmark” își propune să facă conținutul automatizat ușor de recunoscut pentru a consolida transparența și încrederea în spațiile de comunicare digitală. Cercetarea se concentrează în primul rând pe tehnologia de filigranare a textului, care ascunde marcajele în text pentru a face urmăribile originea și posibilele modificări.
Un obiectiv cheie al acestui proiect este modificarea modelelor de limbaj mari (LLM) pentru a avea o semnătură digitală. Ar trebui să fie posibil să se distingă aceste modele de limbaj de marcă de cele fără marcă pentru a detecta rapoartele neautorizate într-un stadiu incipient. Proiectul este finanțat cu aproximativ 1,07 milioane de euro de către Ministerul Federal al Educației și Cercetării și face parte din măsurile de dezvoltare a tehnologiilor securizate într-o lume din ce în ce mai conectată în rețea.
Contextul și evoluțiile tehnologice
Nevoia de filigrane crește, mai ales că liniile dintre realitate și ficțiune devin din ce în ce mai estompate. Tehnologii precum C2PA și SynthID devin din ce în ce mai importante pentru a recunoaște mai bine conținutul generat de AI. C2PA înregistrează originea și procesarea imaginilor în metadate și este deja susținută de producători renumiți de camere precum Leica și Canon. Meta, compania din spatele Facebook, intenționează, de asemenea, să eticheteze imaginile generate de AI pe platformele sale.
În plus, Google lucrează la SynthID, un proces de etichetare invizibilă a imaginilor generate de AI, care este țesut direct în structura pixelilor. Aceste tehnologii au scopul de a promova autenticitatea conținutului și sunt susținute de inițiative precum Content Authenticity Initiative (CAI), lansată de companii precum Adobe și Microsoft.
Dezvoltarea acestor tehnologii este crucială, mai ales pe măsură ce disputele juridice legate de utilizarea conținutului generat de inteligență artificială cresc. De exemplu, Getty Images a dat în judecată Stability AI pentru utilizarea a peste 12 milioane de imagini din baza sa de date. Acuzații similare au fost făcute împotriva OpenAI de către New York Times, subliniind urgența de a stabili etichete clare pentru conținutul digital.