Wenn Künst­li­che In­tel­li­genz in den Di­a­log geht

 |  ForschungSonderforschungsbereicheKünstliche IntelligenzMitteilung

Sollte eine Bank jemandem einen Kredit gew?hren? Wo sollten Streifenpolizist*innen sich aufhalten, um ein Verbrechen zu verhindern? Und sollte man einen Hirntumor operieren oder konservativ behandeln? Künstliche Intelligenz kann in vielen F?llen zuverl?ssige Antworten auf diese Fragen liefern. Allerdings bleibt dabei meist unklar, wie das System zu seinem Ergebnis gekommen ist. Forschende der Universit?ten Bielefeld und Paderborn arbeiten in einem Teilprojekt des Sonderforschungsbereichs und Transregios ?Erkl?rbarkeit konstruieren“ (SFB/TRR 318) daran, solche Ergebnisse erkl?rbar zu machen.

Auch wenn Künstliche Intelligenz (KI) in vielen F?llen erstaunlich zuverl?ssige Antworten liefert – wer sie nutzt, mag den Empfehlungen oft nicht blind vertrauen, sondern würde gern verstehen, wie eine KI zu einer Einsch?tzung gekommen ist. Mit einfachen Erkl?rungen ist es dabei aber nur selten getan: ?Viele Variablen h?ngen auf komplexe Weise zusammen und es gibt Wechselwirkungen zwischen ihnen“, sagt Prof. Dr. Axel-Cyrille Ngonga Ngomo vom Institut für Informatik der Universit?t Paderborn. Er forscht gemeinsam mit Prof. Dr. Philipp Cimiano vom Forschungsinstitut CITEC der Universit?t Bielefeld und Professorin Dr. Elena Esposito von der Fakult?t für Soziologie der Universit?t Bielefeld zu der Frage, welches Dialogsystem eine KI ben?tigt, um ihre Antworten einem Menschen erkl?ren zu k?nnen.

KI-generierte Erkl?rungen setzen Spezialwissen voraus

Die Herausforderung dabei ist unter anderem: Warum eine Person zum Beispiel als nicht kreditwürdig eingestuft wird, muss nicht an der Summe der einzelnen Variablen liegen, sondern kann sich auch aus ihrem Zusammenspiel ergeben. Wie kann eine Maschine auf sinnvolle Weise erkl?ren, wie sie in einem solchen Fall zu ihrem Ergebnis gekommen ist? Solche Erkl?rungen setzen oft viel Wissen darüber voraus, wie eine KI funktioniert – und oftmals w?ren sie selbst für KI-Expert*innen viel zu komplex, sofern der gesamte Prozess nachvollzogen werden müsste.

Wie also kann Verstehen besser konstruiert werden? ?Eine M?glichkeit ist es, statt tiefgehenden Erkl?rungen mit einem kontrafaktualen Ansatz zu arbeiten“, sagt Ngonga. Damit wird etwas über sein Gegenteil erkl?rt: Ein Chatbot würde in diesem Fall verdeutlichen, dass er eine andere Entscheidung getroffen h?tte, wenn wenige, entscheidende Details anders gewesen w?ren. Im Falle des Kredits w?re dieser beispielsweise gew?hrt worden, wenn die Person, die das Geld ben?tigt, nicht aktuell schon ein Auto abbezahlen würde.

Neues System soll frühere Kommunikation mit den Fragenden berücksichtigen

Das liefert Nutzenden zwar keinen Einblick in den kompletten Entscheidungsprozess, aber sie k?nnen die Empfehlung der KI nachvollziehen, ohne dass sie deren Funktionsweise vollends begreifen müssten. ?Wir verfolgen dazu Ans?tze aus der Ko-Konstruktion, bei denen es mit einer Maschine als Partner darum geht, nicht nur Erkl?rungen auszutauschen, sondern auch sinnvoll zu beantworten, wie es zu diesen Erkl?rungen gekommen ist“, sagt Elena Esposito.

?Eine solche erkl?rbare KI w?re für viele Bereiche interessant – nicht nur für die Banken, sondern beispielsweise auch für Versicherungen, die Polizei, medizinisches Personal und viele weitere Bereiche“, erg?nzt Esposito. Die Forschenden betreiben im Projekt Grundlagenforschung dazu, wie sich solche Erkl?rungen in eine neutrale Sprache übersetzen lassen. Dafür sichten sie auch bereits vorhandene Systeme, wollen grunds?tzlich aber ein v?llig neues System entwickeln. Wichtig ist es, dass dieses sich an die Nutzenden und ihre Anforderungen anpasst: Es müsste etwa in der Lage sein, anhand bestimmter Signale und Hinweise auf den Kontext zu schlie?en.

Die Forschenden planen, zun?chst ein System zu entwickeln, das sich in der Radiologie einsetzen l?sst. Die Antworten auf die inhaltlich gleiche Frage k?nnten sich dann beispielsweise danach unterscheiden, ob ?rztliches Fachpersonal oder Pflegepersonal sie stellt. 365足彩投注_365体育投注@ k?nnten darüber hinaus auch davon abh?ngen, von wo eine Frage gestellt wird und ob es in der Vergangenheit schon Kommunikation mit dieser Person gab. So werden sinnvolle Erkl?rungen generiert und Wiederholungen in den Antworten vermieden. ?Was für Fragende wichtig ist, kann ganz unterschiedlich sein“, sagt Philipp Cimiano.

Künstliche Intelligenz als Ratgeber

In Zusammenarbeit mit der Klinik für Kinderchirurgie und Kinder- und Jugendurologie des Evangelischen Krankenhauses Bethel wollen die Wissenschaftler*innen des Forschungsprojekts ihr System anhand von R?ntgenaufnahmen trainieren. ?Danach analysieren wir das Versuchsprotokoll und untersuchen, welche Art von Informationen die Fragenden ben?tigen“, sagt Cimiano. ?rzt*innen k?nnten das System dann beispielsweise darum bitten, die Hirnregion zu markieren, die für das Ergebnis relevant ist. ?365足彩投注_365体育投注@ k?nnten auch fragen, ob es Aufnahmen ?hnlicher Tumoren gibt, die auf diese Weise behandelt worden sind. Letztlich wird es vor allem darum gehen, einen Vorschlag für die Behandlung zu begründen und ihn sinnvoll zu erkl?ren.“

Auf lange Sicht k?nnten solche Systeme zur Erkl?rbarkeit von Entscheidungen nicht nur eine Rolle für KI-Anwendungen spielen, sondern auch bei Robotern zum Einsatz kommen. ?Roboter nutzen verschiedenste Modelle, um Vorhersagen zu treffen und sie klassifizieren verschiedenste Arten von Situationen“, sagt Cimiano. Für Roboter müsste ein Dialogsystem an ihre besonderen Bedingungen angepasst sein. ?Im Gegensatz zu Chatbots bewegen sie sich in einer Situation im Raum“, sagt er. ?Dafür müssen sie nicht nur Kontexte erfassen, sondern auch bewerten k?nnen, welche Art von Information relevant ist und wie tief sie in die Erkl?rungen einsteigen sollten.“

Im Dialog mit dem KI-System

Die Wissenschaftler*innen im Projekt B01 am Transregio 318 arbeiten an einem System mit Künstlicher Intelligenz (KI), das mündliche Fragen versteht und diese im sprachlichen Dialog angemessen beantworten kann. In der Medizin soll das System beispielsweise gegenüber ?rzt*innen einen Behandlungsvorschlag begründen k?nnen sowie Fragen und Unsicherheiten von Patient*innen in Bezug auf den Behandlungsplan kl?ren. Die Informatiker*innen und Soziolog*innen beziehen in ihre Forschung die Sichtweise der Nutzer*innen ein. Dafür beobachten sie, wie beispielsweise Klinikmitarbeitende das KI-System annehmen und welche Anforderungen sie an das System stellen.

Weitere Informationen: trr318.uni-paderborn.de/projekte/b01

Foto (Universit?t Bielefeld, Mike-Dennis Müller): Prof. Dr. Axel-Cyrille Ngonga Ngomo vom Institut für Informatik der Universit?t Paderborn befasst sich in seiner Forschung mit den Schnittstellen zwischen Mensch, Maschine und Daten.
Foto (Universit?t Bielefeld, Michael Adamski): Prof. Dr. Elena Esposito besch?ftigt sich mit den Effekten von algorithmischen Vorhersagen und den notwendigen Voraussetzungen, um Künstliche Intelligenz erkl?rbar zu machen.
Foto (Universit?t Bielefeld, Michael Adamski): Prof. Dr. Philipp Cimiano untersucht, wie KI-Systeme unstrukturierte Datenmengen verarbeiten und ihre Ergebnisse verst?ndlich machen k?nnen.