Die Welt der Künstlichen Intelligenz (KI) wird sich bald mit neuen Perspektiven und Ansätzen bereichern. Die Universität des Saarlandes hat kürzlich Sara Magliacane zur Professorin für Machine Learning ernannt. Diese Ernennung könnte eine Wende im Bereich des maschinellen Lernens bedeuten, da Magliacane plant, Kausalitäten in KI-Modelle zu integrieren, um deren Sicherheit und Zuverlässigkeit zu verbessern. Ihr primäres Ziel ist es, KI-Systeme so zu entwickeln, dass sie nicht nur Muster erkennen, sondern auch verstehen, wie Ursache und Wirkung zusammenhängen.
Das hat große Bedeutung, denn viele KI-Anwendungen, die heute in wichtigen Bereichen wie der medizinischen Diagnose, Forschung und Wirtschaft eingesetzt werden, können derzeit keine Kausalitäten erkennen. Aktuelle Systeme setzen auf statistische Methoden und verstehen oft nicht den Wert von Handlungen oder die Konsequenzen ihrer Entscheidungen. Dies hat weitreichende Implikationen, besonders wenn es darum geht, Schäden zu vermeiden oder Entscheidungsprozesse zu optimieren, wie es uni-saarland.de hervorhebt.
Magliacane bringt eine beeindruckende wissenschaftliche Laufbahn mit. Seit 2020 war sie Assistenzprofessorin am Amsterdam Machine Learning Lab und zuvor forschte sie sechs Jahre als Principal Investigator am MIT-IBM Watson AI Lab in Cambridge, Massachusetts. Ihre Expertise in Large Language Models, Vision Language Models und verkörperter KI ergänzt das Forschungsfeld am Saarland Informatics Campus und fällt in die Förderperiode des Graduiertenkollegs „Neuroexplizite Modelle für Sprachverarbeitung, Bilderkennung und Aktionsentscheidungen“, welches bis 2028 von der Deutschen Forschungsgemeinschaft unterstützt wird.
Kausalität im Fokus
Ein zentraler Aspekt in Magliacanes Forschung ist die Kausalität. Der Paradigmenwechsel von Korrelation zu Kausalität könnte die Art und Weise, wie KI-Systeme Entscheidungen treffen, fundamental verändern. Bei der Causal Learning and Reasoning (CLeaR) Konferenz, die im Mai dieses Jahres in Lausanne stattfand, wurden Fortschritte in der kausalen Inferenz vorgestellt, die Algorithmen befähigen sollen, nicht nur zu beobachten, sondern auch zu verstehen, was ihre Entscheidungen beeinflusst. Die Diskussion zeigte auf, dass viele Systeme lediglich auf der ersten Ebene der Pearl Ladder of Causation operieren, die auf Assoziationen fokussiert ist, während das Verständnis von Interventionen und kontrafaktischem Denken noch unausgereift ist. Ein tiefgehendes Verständnis dieser Konzepte ist entscheidend, um faire und erklärbare Entscheidungen im Umgang mit KI zu treffen, wie hub.hslu.ch betont.
Die Integration kausaler Modelle in Machine Learning Systeme könnte entscheidend zur Lösung der aktuellen Herausforderungen in der KI beitragen. Ein zentraler Punkt ist hierbei die Datenqualität. Die meisten Daten, die für das Training von KI-Modellen genutzt werden, bieten nur eine vereinfachte Sicht auf die Realität. Das bedeutet, dass Probleme wie defekte Sensoren oder Änderungen in den Umgebungsbedingungen die Ergebnisse beeinflussen können. Dr. Julien Siebert hebt hervor, wie wichtig kausalitätsbasierte Methoden sind, um Datenqualitätsproblemen auf die Spur zu kommen und zu begegnen. Ein ca. 50 % der Zeit auf Datenvorbereitung entfallende Aufwand verdeutlicht die Notwendigkeit von Verbesserungen in der Datenaufbereitung und -analyse, um vertrauenswürdige und robuste KI-Modelle zu entwickeln, wie iese.fraunhofer.de festgestellt hat.
Insgesamt zeigen die Entwicklungen um Sara Magliacane und die Forschung zur Kausalität, dass wir an einem Wendepunkt in der Entwicklung von KI und maschinellem Lernen stehen. Indem wir das Verständnis von Kausalitäten in diesen Technologien stärken, können wir nicht nur die Effizienz der Systeme erhöhen, sondern auch sicherstellen, dass sie verantwortungsvoll eingesetzt werden, um Entscheidungen zu treffen, die tatsächlich auf soliden wissenschaftlichen Grundlagen basieren.