Die rasante Entwicklung generativer Künstlicher Intelligenz (GenAI) bringt zahlreiche Möglichkeiten, aber auch Herausforderungen mit sich. Eine aktuelle Untersuchung von Forschenden der Ruhr-Universität Bochum und des CISPA Helmholtz-Centers für Informationssicherheit beleuchtet die Nutzung und Wahrnehmung von KI-Labels, die dazu dienen sollen, KI-generierte Inhalte zu kennzeichnen. Laut news.rub.de weist die Studie darauf hin, dass die Nutzung von GenAI heute kein spezielles Fachwissen mehr erfordert. Inhalte wie Bilder, Videos oder Audios können in der Regel durch einfache Textprompts erstellt werden.
Mit der Verbreitung dieser Technologien wird die Sensibilisierung für mögliche Missbräuche dringlicher. Gesetzgeber und Plattformanbieter haben die negativen Auswirkungen erkannt und beginnen, Maßnahmen zu ergreifen. Eine solche Maßnahme sind die erwähnten KI-Labels, die es den Nutzern ermöglichen sollen, KI-generierte Inhalte gezielt zu identifizieren.
Die Studie im Fokus
Die von Jonas Ricker, PhD, und Sandra Höltervennhoff geleitete Untersuchung wurde auf der Cybersicherheits-Konferenz ACM CHI 2026 in Barcelona präsentiert. Das Ziel der Studie war es, das Nutzungsverhalten von KI-Labels aus der Perspektive der Nutzer zu analysieren. Damit sollen wichtige Einblicke in die Akzeptanz und die Effektivität dieser Labels gewonnen werden.
Generative KI-Modelle, als Teilgebiet der universell einsetzbaren KI-Modelle, lernen Muster aus großen Datenmengen, um eigenständig neue Inhalte zu erzeugen. Laut bsi.bund.de sind sie in der Lage, kreative Aufgaben zu erfüllen, die menschliches Verständnis verlangen. Allerdings bringen sie auch IT-Sicherheitsrisiken mit sich und können bestehende Bedrohungen verstärken.
Chancen und Risiken
In einer Publikation mit dem Titel „Generative KI-Modelle: Chancen und Risiken für Industrie und Behörden“ wird dargelegt, wie Risiken, die mit der Verwendung von GenAI einhergehen, minimiert werden können. Diese richtet sich an Unternehmen und Behörden, die beabsichtigen, solche Modelle in ihre Arbeitsabläufe zu integrieren. Zudem wird ein Sicherheitsbewusstsein für den Einsatz generativer KI-Modelle gefördert. Es wird betont, dass die Publikation kontinuierlich aktualisiert wird, um neue Teilgebiete der generativen KI, wie etwa Audiogeneratoren, zu berücksichtigen.
Zusammenfassend zeigt sich: Die Integration von KI-Labels könnte ein entscheidender Schritt sein, um den Umgang mit und die Verantwortung für KI-generierte Inhalte zu verbessern. Wissenschaftliche und sicherheitstechnische Perspektiven müssen Hand in Hand gehen, um die von diesen Technologien ausgehenden Risiken zu managen.