
In einer Welt, in der Desinformation immer leichter verbreitet wird, stellt die Forschungsgruppe XplaiNLP an der TU Berlin einen entscheidenden Schritt zur Bekämpfung dieser Herausforderung dar. Unter der Leitung von Dr. Vera Schmitt hat die Gruppe es sich zur Aufgabe gemacht, die gesellschaftliche Widerstandsfähigkeit gegenüber Desinformationen zu stärken. Mit über 4 Millionen Euro Drittmitteln ist ihre Forschung darauf ausgerichtet, Werkzeuge zu entwickeln, die sowohl Journalist*innen als auch der Öffentlichkeit helfen, Desinformationsnarrative besser zu verstehen.
Die Arbeit der Gruppe konzentriert sich auf zwei Hauptprojekte: VeraXtract und news-polygraph. Das Projekt VeraXtract zielt darauf ab, komplexe Desinformationsnarrative zu analysieren, um nicht nur falsche Informationen zu identifizieren, sondern auch die dahinterstehenden Erzählungen zu entschlüsseln. Ein KI-gestütztes „Narrative Monitoring Tool“ soll hierbei eine zentrale Rolle spielen. Diese Technologie liefert verständliche Erklärungen für ihre Analysen und bietet somit Transparenz gegenüber den Nutzer*innen.
Aktuelle Projekte und deren Bedeutung
Das zweite Projekt, news-polygraph, richtet sich speziell an Journalist*innen und ist darauf ausgelegt, Falschinformationen in Texten, Bildern, Audio- und Videoinhalten zu finden. Die erste Demoversion des Tools ist für April angekündigt. Angesichts der Herausforderungen, dass Faktenchecks oft zu spät erfolgen und Desinformationen im kollektiven Gedächtnis haften bleiben, wird die Entwicklung solcher Technologien immer dringlicher.
Die Forschungsgruppe XplaiNLP umfasst derzeit 24 Teammitglieder und ist damit eine der führenden Gruppen im Bereich der Desinformationserkennung in Deutschland. Die Ziele der Gruppe ergänzen sich durch die Notwendigkeit, die Rolle von KI bei der Bekämpfung von Desinformation kritisch zu beleuchten. Dr. Schmitt betont die Relevanz von KI: Sie kann als Brücke zwischen Menschen fungieren und helfen, Filterblasen zu durchbrechen.
Die Herausforderungen der Desinformation
Die omnipräsente Verbreitung von Desinformation gefährdet das Vertrauen in demokratische Institutionen und kann gesellschaftliche Spaltungen vertiefen. Der Einsatz von KI in diesem Kontext beleuchtet sowohl die Risiken als auch die Möglichkeiten. Neben der Identifikation von Fehlinformationen analysiert das Team auch stilistische Merkmale, um emotionale und aufgeladene Inhalte zu erkennen. Diese Ansätze sind besonders relevant in der Zeit vor Wahlen und Konflikten, wenn Desinformation zunehmend strategisch eingesetzt wird.
Die Gruppe arbeitet auch mit Partnern wie der Deutschen Welle und dem Deutschen Forschungszentrum für Künstliche Intelligenz zusammen, um die Methoden zur Erkennung von „Deepfakes“ und zur Inhaltsanalyse weiterzuentwickeln. Initiativen wie die International Fact-Checking Signatories und lokale Faktenchecker sind ebenfalls aktiv beteiligt, um Falschinformationen entgegenzuwirken. Der Digital Services Act (DSA) könnte zudem eine wichtige Rolle in der Regulierung von Social-Media-Plattformen spielen, was die Content-Moderation betrifft.
Ein wichtiges Format für den Austausch sind Veranstaltungen, wie etwa die Diskussion über Faktenchecks mit KI, die für den 10. Dezember 2024 an der TU Berlin geplant ist. Hier sollen aktuelle Herausforderungen, rechtliche Rahmenbedingungen und die Notwendigkeit menschlicher Faktenchecker*innen diskutiert werden, um den gesellschaftlichen Umgang mit KI zu verbessern.
Die Vision der Forschungsgruppe reicht bis ins Jahr 2030, in der KI in der Lage sein soll, Desinformation in Echtzeit zu erkennen und zu kontextualisieren. Dadurch soll Vertrauen in Informationen wiederhergestellt und letztlich der gesellschaftliche Zusammenhalt gefördert werden. Die Herausforderungen sind unverkennbar, aber die Ansätze der XplaiNLP Forschungsgruppe bieten neue Perspektiven im Kampf gegen die Flut der Desinformation.