Watermerken in het digitale tijdperk: veiligheid of illusie?
Onderzoekers van de Universiteit van Bochum presenteren nieuwe beveiligingslacunes in semantische watermerken voor door AI gegenereerde inhoud.

Watermerken in het digitale tijdperk: veiligheid of illusie?
De snelle ontwikkeling van kunstmatige intelligentie (AI) heeft geleid tot een hausse in de creatie van inhoud die vaak moeilijk te onderscheiden is van echt werk. Vooral bij het genereren van afbeeldingen en teksten is het dringend nodig om de herkomst ervan duidelijk te identificeren. Onderzoeksteams over de hele wereld werken aan oplossingen om door AI gegenereerde werken te identificeren en de verspreiding van verkeerde informatie tegen te gaan.
Een centraal onderwerp in deze discussie is het gebruik van watermerken. Deze technologieën kunnen helpen bewijzen of een afbeelding door een AI is gegenereerd. In afbeeldingsbestanden worden zichtbare en onzichtbare watermerken gebruikt, waarbij semantische watermerken als bijzonder robuust worden beschouwd. Ze zijn diep verankerd in het proces van het creëren van een beeld en worden daarom als moeilijker te verwijderen beschouwd. Maar onlangs ontdekten cybersecurity-onderzoekers van de Ruhr Universiteit Bochum beveiligingslacunes in deze semantische watermerken. De resultaten werden gepresenteerd op de Computer Vision and Pattern Recognition (CVPR) conferentie op 15 juni 2025 in Nashville, VS. Andreas Müller, onderdeel van het onderzoeksteam, legt uit dat aanvallers met eenvoudige middelen semantische watermerken kunnen vervalsen of verwijderen. Zijn team heeft twee nieuwe aanvalsopties ontwikkeld die deze technologieën bedreigen.
Digitale watermerken voor teksten
Parallel aan de ontwikkelingen op het gebied van beeldverwerking concentreren wetenschappers van de Faculteit Media, het Fraunhofer Instituut voor Digitale Media Technologie IDMT en Artefact Duitsland zich op digitale watermerken voor geschreven teksten en gesproken taal. Uw project “Lantmark” heeft tot doel geautomatiseerde inhoud herkenbaar te maken om de transparantie en betrouwbaarheid in digitale communicatieruimtes te versterken. Het onderzoek richt zich vooral op tekstwatermerktechnologie, waarbij markeringen in tekst worden verborgen om de herkomst en eventuele wijzigingen traceerbaar te maken.
Een belangrijk doel van dit project is het aanpassen van grote taalmodellen (LLM's) zodat ze een digitale handtekening kunnen bevatten. Het moet mogelijk zijn om deze merktaalmodellen te onderscheiden van niet-merktaalmodellen, zodat ongeautoriseerde meldingen in een vroeg stadium kunnen worden opgespoord. Het project wordt gefinancierd met ongeveer 1,07 miljoen euro door het federale ministerie van Onderwijs en Onderzoek en maakt deel uit van maatregelen om veilige technologieën te ontwikkelen in een steeds meer genetwerkte wereld.
Technologische context en ontwikkelingen
De behoefte aan watermerken groeit, vooral omdat de grenzen tussen realiteit en fictie steeds vager worden. Technologieën zoals C2PA en SynthID worden steeds belangrijker om door AI gegenereerde inhoud beter te herkennen. C2PA legt de herkomst en verwerking van beelden vast in de metadata en wordt al ondersteund door gerenommeerde camerafabrikanten als Leica en Canon. Meta, het bedrijf achter Facebook, is ook van plan om door AI gegenereerde afbeeldingen op zijn platforms te labelen.
Daarnaast werkt Google aan SynthID, een proces voor het onzichtbaar labelen van door AI gegenereerde afbeeldingen dat direct in de pixelstructuur is verweven. Deze technologieën zijn bedoeld om de authenticiteit van de inhoud te bevorderen en worden ondersteund door initiatieven zoals het Content Authenticity Initiative (CAI), gelanceerd door bedrijven als Adobe en Microsoft.
De ontwikkeling van deze technologieën is van cruciaal belang, vooral omdat de juridische geschillen rond het gebruik van door AI gegenereerde inhoud toenemen. Getty Images heeft Stability AI bijvoorbeeld aangeklaagd wegens het gebruik van meer dan 12 miljoen afbeeldingen uit zijn database. Soortgelijke beschuldigingen werden door de New York Times tegen OpenAI geuit, wat de urgentie onderstreepte van het vaststellen van duidelijke labels voor digitale inhoud.