Am 16. März 2026 fand im Fab City House in Hamburg das zweite KI-Forum der Helmut-Schmidt-Universität und der Universität der Bundeswehr Hamburg (HSU/UniBw H) statt. Rund 60 Expertinnen und Experten aus Wissenschaft, Wirtschaft und Praxis kamen zusammen, um über die neuesten Entwicklungen im Bereich der Large Language Models (LLMs) und Trends in der generativen Künstlichen Intelligenz zu diskutieren. Die Veranstaltung wurde von Univ.-Prof. Dr. Monika Daseking und Univ.-Prof. Dr. Christina Schaefer begrüßt. Univ.-Prof. Dr. Oliver Niggemann unternahm den ersten Schritt in die Materie und skizzierte zentrale Fragestellungen zur Weiterentwicklung und Nutzung moderner Sprachmodelle.

Das Hauptaugenmerk lag auf einer Keynote von Dr. Lothar Hotz, der als Mitglied von HiTEC e. V. und ARIC aktuelle Einsatzfelder sowie Herausforderungen von LLMs in der Industrie und Forschung beleuchtete. Besonders spannend war der Beitrag von Dr.–Ing. Matthias Grünewald von Unity Consulting & Innovation, der darstellte, wie Agentic AI die Arbeitsprozesse verändert und neue Formen der Zusammenarbeit ermöglicht.

Anwendungen von LLMs

Large Language Models wie ChatGPT haben sich als leistungsstarke Werkzeuge zur Verarbeitung und Generierung menschlicher Sprache etabliert. Fraunhofer IESE hebt hervor, dass diese Technologien in Unternehmen vielfältig eingesetzt werden, etwa in der natürlichen Sprachverarbeitung, Content-Erstellung und im Kundensupport. Sie kommen auch bei der Sentiment-Analyse und Sprachübersetzung zum Einsatz. Ein wesentlicher Vorteil: Viele dieser Modelle benötigen kein zusätzliches Finetuning für zahlreiche Aufgaben.

Unternehmen sollten jedoch bei der Auswahl von LLMs auf spezifische Anforderungen achten. Wichtige Faktoren sind unter anderem Anpassungsfähigkeit, technische Kompatibilität, Kosten sowie die rechtlichen und ethischen Implikationen. Ein strukturierter Ansatz bei der Implementierung umfasst die Definition der Aufgaben, die Bewertung der Rechenkapazitäten sowie die Identifizierung der zu integrierenden Daten.

Herausforderungen und Risiken

Eine Herausforderung, die im Forum angesprochen wurde, betrifft die oft kritisierte Neigung von LLMs, sogenannte „Halluzinationen“ zu erzeugen. Diese können dazu führen, dass Inhalte produziert werden, die plausibel erscheinen, aber faktisch falsch sind. Die Ursachen für diese Halluzinationen sind vielfältig: Sie können auf die Qualität der Trainingsdatensätze, aktuelle Ereignisse oder Mehrdeutigkeiten in den Benutzeranfragen zurückzuführen sein. Heidelberg University beschreibt zudem, dass moderne Sprachmodelle in der Lage sind, die Anzahl der Halluzinationen zu reduzieren, sie jedoch nicht vollständig eliminieren können.

Ein weiteres Problem stellt die Verarbeitung von toxischen oder diskriminierenden Inhalten dar, die durch Biases in den Datensätzen entstehen können. Auch der Energieverbrauch dieser Modelle ist nicht zu vernachlässigen, weshalb die Nachhaltigkeit der Technologien immer wieder hinterfragt werden sollte. Abschließend ist es für Anwender wichtig, ein tiefes Verständnis für die Schwächen großer Sprachmodelle zu entwickeln, insbesondere im Hinblick auf deren Leistungsgrenzen und die Transparenz der Outputs.

Nach dem informativen Vortragsprogramm bot die Veranstaltung Raum für persönliche Gespräche und den Austausch von Ideen. Bei Snacks und Getränken knüpften die Teilnehmenden Kontakte und suchten nach Anknüpfungspunkten zwischen Forschung und praktischer Anwendung. Das nächste KI-Forum ist bereits für Juni geplant und verspricht, weitere spannende Einblicke in die Entwicklung der Künstlichen Intelligenz zu bieten.