Datum/Zeit/Ort: Montag, 22.04.2024, von 18.00 bis 20.00 Uhr, Uni Bayreuth, Hörsaal 15, Gebäude NW I. Vortragssprache: Englisch, anschließende Diskussion in deutscher und englischer Sprache. Der Eintritt ist frei, eine Anmeldung ist nicht erforderlich.
Künstliche Intelligenzsysteme, die auf Algorithmen des maschinellen Lernens (ML-Modelle) basieren, werden oft als Black Boxes dargestellt, was bedeutet, dass es für Benutzer schwierig ist zu verstehen, wie und warum sie ihre Ergebnisse erzielen. In der Literatur wird dies meist als Black-Box-Problem bezeichnet. Die Lösung dieses Problems ist das grundlegende Ziel des kürzlich ins Leben gerufenen Forschungsprogramms „Explainable Artificial Intelligence“ (XAI). Eine große Herausforderung bei XAI besteht darin, Erklärungen zu den Überlegungen und Ergebnissen von ML-Modellen zu formulieren, die für Benutzer mit begrenztem Fachwissen in KI und verwandten Bereichen verständlich sind. Große Sprachmodelle (LLMs) der nächsten Generation scheinen für diese Aufgabe besonders geeignet zu sein.
Alberto Termine wird in seinem Vortrag näher auf die Herausforderungen und Risiken eingehen, die der Einsatz von LLMs für XAI-Zwecke mit sich bringt. Er wird sich insbesondere auf das Phänomen der Halluzination konzentrieren, d. h. auf die Tendenz von LLMs, Erklärungen zu liefern, die zuverlässig erscheinen, in Wirklichkeit aber eine Fülle falscher und möglicherweise irreführender Informationen enthalten. Dabei wird er behaupten, dass Halluzinationen die Zuverlässigkeit von LLMs als XAI-Tools erheblich untergraben und dass die Lösung dieses Problems die größte Herausforderung bei der Entwicklung sicherer, fairer und vertrauenswürdiger LLM-basierter XAI-Systeme darstellt.