Logo Universität Bayreuth

Uni-Notiz Nr. 29/2024 vom 12. April 2024

Bayreuth Lectures mit Alberto Termine aus Lugano – Erklärbare Künstliche Intelligenz

Die Bayreuth Lectures sind Teil des Studium Generale an der Universität Bayreuth und richten sich an Studierende, die Hochschulöffentlichkeit und interessierte Gäste. Die Lectures fokussieren aktuelle wissenschaftliche Themen. Am Montag, 22. April, wird Alberto Termine, Forschungsstipendiat im Bereich maschinelles Lernen am Dalle Molle Institut für Künstliche Intelligenz in Lugano (Schweiz) über „Erklärbare KI mit großen Sprachmodellen: Chancen, Herausforderungen und Risiken“ referieren. Organisiert wird die Vorlesung von Prof. Dr. Lena Kästner und Prof. Dr. Mirco Schönfeld (beide Universität Bayreuth).

Datum/Zeit/Ort: Montag, 22.04.2024, von 18.00 bis 20.00 Uhr, Uni Bayreuth, Hörsaal 15, Gebäude NW I. Vortragssprache: Englisch, anschließende Diskussion in deutscher und englischer Sprache. Der Eintritt ist frei, eine Anmeldung ist nicht erforderlich.

Künstliche Intelligenzsysteme, die auf Algorithmen des maschinellen Lernens (ML-Modelle) basieren, werden oft als Black Boxes dargestellt, was bedeutet, dass es für Benutzer schwierig ist zu verstehen, wie und warum sie ihre Ergebnisse erzielen. In der Literatur wird dies meist als Black-Box-Problem bezeichnet. Die Lösung dieses Problems ist das grundlegende Ziel des kürzlich ins Leben gerufenen Forschungsprogramms „Explainable Artificial Intelligence“ (XAI). Eine große Herausforderung bei XAI besteht darin, Erklärungen zu den Überlegungen und Ergebnissen von ML-Modellen zu formulieren, die für Benutzer mit begrenztem Fachwissen in KI und verwandten Bereichen verständlich sind. Große Sprachmodelle (LLMs) der nächsten Generation scheinen für diese Aufgabe besonders geeignet zu sein.

Alberto Termine wird in seinem Vortrag näher auf die Herausforderungen und Risiken eingehen, die der Einsatz von LLMs für XAI-Zwecke mit sich bringt. Er wird sich insbesondere auf das Phänomen der Halluzination konzentrieren, d. h. auf die Tendenz von LLMs, Erklärungen zu liefern, die zuverlässig erscheinen, in Wirklichkeit aber eine Fülle falscher und möglicherweise irreführender Informationen enthalten. Dabei wird er behaupten, dass Halluzinationen die Zuverlässigkeit von LLMs als XAI-Tools erheblich untergraben und dass die Lösung dieses Problems die größte Herausforderung bei der Entwicklung sicherer, fairer und vertrauenswürdiger LLM-basierter XAI-Systeme darstellt.

Ursula Küffner

Ursula KüffnerKinderUni, Expertenvermittlung, Redaktion Uni-Notizen

Telefon: 0921 / 55-5324
E-Mail: ursula.kueffner@uni-bayreuth.de oder pressestelle@uni-bayreuth.de

Zentrale Universitätsverwaltung (ZUV), Büro 3.08 
Universitätsstraße 30, 95447 Bayreuth