Водните знаци в дигиталната ера: сигурност или илюзия?

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Изследователи от университета в Бохум представят нови пропуски в сигурността на семантичните водни знаци за съдържание, генерирано от AI.

Forschende der Uni Bochum präsentieren neue Sicherheitslücken bei semantischen Wasserzeichen für KI-generierte Inhalte.
Изследователи от университета в Бохум представят нови пропуски в сигурността на семантичните водни знаци за съдържание, генерирано от AI.

Водните знаци в дигиталната ера: сигурност или илюзия?

Бързото развитие на изкуствения интелект (AI) предизвика бум в създаването на съдържание, което често е трудно да се разграничи от истинската работа. Особено когато се генерират изображения и текстове, има спешна нужда да се идентифицира ясно техният произход. Изследователски екипи по целия свят работят върху решения за идентифициране на произведения, генерирани от AI, и за борба с разпространението на дезинформация.

Централна тема в тази дискусия е използването на водни знаци. Тези технологии могат да помогнат да се докаже дали изображението е генерирано от AI. Във файловете с изображения се използват видими и невидими водни знаци, като семантичните водни знаци се считат за особено надеждни. Те са дълбоко вградени в процеса на създаване на изображение и затова се считат за по-трудни за премахване. Но наскоро изследователи по киберсигурност от Рурския университет в Бохум откриха пропуски в сигурността на тези семантични водни знаци. Резултатите бяха представени на конференцията за компютърно зрение и разпознаване на образи (CVPR) на 15 юни 2025 г. в Нешвил, САЩ. Андреас Мюлер, част от изследователския екип, обяснява, че нападателите могат да фалшифицират или премахват семантични водни знаци с прости средства. Неговият екип е разработил две нови опции за атака, които заплашват тези технологии.

Цифрови водни знаци за текстове

Паралелно с разработките в областта на обработката на изображения, учени от Факултета по медиите, Института Fraunhofer за цифрови медийни технологии IDMT и Artefact Германия се концентрират върху цифровите водни знаци за писмени текстове и говорим език. Вашият проект „Lantmark“ има за цел да направи автоматизираното съдържание разпознаваемо, за да засили прозрачността и надеждността в пространствата за цифрова комуникация. Изследването се фокусира основно върху технологията за поставяне на водни знаци върху текст, която скрива маркировки в текста, за да направи произхода и възможните промени проследими.

Ключова цел на този проект е да се модифицират големи езикови модели (LLM), за да носят цифров подпис. Трябва да е възможно да се разграничат тези брандирани езикови модели от немаркирани, за да се открият неоторизирани доклади на ранен етап. Проектът е финансиран с около 1,07 милиона евро от Федералното министерство на образованието и научните изследвания и е част от мерките за разработване на сигурни технологии в един все по-мрежов свят.

Технологичен контекст и развитие

Нуждата от водни знаци нараства, особено след като границите между реалност и измислица стават все по-размити. Технологии като C2PA и SynthID стават все по-важни за по-доброто разпознаване на генерирано от AI съдържание. C2PA записва произхода и обработката на изображенията в метаданните и вече се поддържа от известни производители на фотоапарати като Leica и Canon. Meta, компанията зад Facebook, също планира да етикетира изображения, генерирани от AI, на своите платформи.

Освен това Google работи върху SynthID, процес за невидимо етикетиране на изображения, генерирани от AI, който е вплетен директно в структурата на пикселите. Тези технологии имат за цел да насърчават автентичността на съдържанието и се поддържат от инициативи като Content Authenticity Initiative (CAI), стартирана от компании като Adobe и Microsoft.

Развитието на тези технологии е от решаващо значение, особено с нарастването на правните спорове около използването на съдържание, генерирано от AI. Например Getty Images съди Stability AI за използването на над 12 милиона изображения от своята база данни. Подобни обвинения бяха направени срещу OpenAI от New York Times, подчертавайки спешността от установяване на ясни етикети за цифрово съдържание.