Multimedia
Security - Sicherheit
vorangehende Seite
end
Medienkompetenzen
Neuem Medien: Medienkompetenzen
Bessere Interaktion mit Künstlicher Intelligenz 2023
Web 2.0: Medienkompetenzen Schweiz Weitere Informationen
Soziale Netzwerke Gefahren
Weitere Informationen und Links
Informations- und Kommunikationstechnologie
Neue Medien
Künstliche Intelligenz
Bessere Interaktion mit Künstlicher Intelligenz

Ein Team von Forschern der TU Darmstadt, hessian.AI und des Deutschen Forschungszentrums für künstliche Intelligenz hat eine Methode vorgestellt, die das Geben menschlichen Feedbacks an eine lernende Software erheblich vereinfacht. Die Arbeit erscheint in der aktuellen Ausgabe von "Nature Machine Intelligence".

Mensch und Maschine in Interaktion: Die Kommunikation zwischen beiden ist ein Grundpfeiler für verlässliche KI-Systeme.

Alle Welt staunt über ChatGPT: Die Sprach-KI beantwortet Fragen, schreibt Referate und spuckt sogar Gedichte aus. Zum Erfolg der lernfähigen Software trägt ihr menschlicher Schreibstil bei. Für Felix Friedrich von der Technischen Universität Darmstadt ist ChatGPT ein Beispiel dafür, wie wichtig die Interaktion zwischen Mensch und Maschine ist. Denn die Eloquenz der Software stammt nicht nur von den Millionen an digitalen Texten, mit denen sie sich selbst trainiert hat, sondern auch von einer Verfeinerung dieses Trainings im Dialog mit dem Menschen.

Viele KI-Algorithmen profitieren bereits von Feedback durch den Menschen, wie Darmstädter Forscher um Professor Kristian Kersting vom Fachbereich Informatik in den letzten Jahren gezeigt haben. Jedoch sei das Potenzial bei weitem noch nicht ausgeschöpft, ist Felix Friedrich überzeugt, der bei Kersting promoviert. Nun stellt der Informatiker zusammen mit Kollegen eine Methode vor, die das Geben menschlichen Feedbacks erheblich vereinfacht. Die Arbeit erscheint in der aktuellen Ausgabedes renommierten Fachmagazins "Nature Machine Intelligence".

Welche Signale tragen zu einer Entscheidung der KI bei?

Um mit Maschinen zu kommunizieren, muss man sie verstehen. Doch das ist bei der aktuell meist verwendeten Form von KI, dem so genannten Deep-Learning, schwierig. Deep-Learning ist inspiriert durch neuronale Verbindungen in biologischen Gehirnen. Grosse Deep-Learning-Netze besitzen Milliarden Verbindungen zwischen virtuellen Neuronen. Es ist schwer nachvollziehbar, welche Signale zueiner Entscheidung der KI beitragen und welche nicht, wie die Software also zu ihrem Ergebnis kommt. Sie ähnelt einer Black Box.

"Oft fragt man auch nicht danach, solange die KI funktioniert", sagt Friedrich. Dadurch übersieht man aber leicht, wenn die KI so genannte "Abkürzungen" nimmt, die zu Fehlern führen können. Was sindsolche Abkürzungen? Deep-Learning wird oft eingesetzt, um auf Bildern bestimmte Objekte zu erkennen ,beispielsweise: Eisbären. Zum Training setzt man ihr sehr viele Bilder von Eisbären vor, wodurch sie anhand der Gemeinsamkeiten lernen soll, was einen Eisbären ausmacht. Nun kann es sein, dass die KI es sich einfach macht. Wenn bei den Trainingsbildern immer Schnee im Hintergrund war, dann nimmt sie diesen Schnee im Hintergrund als Kennzeichen für ein Eisbärbild, statt den Eisbären selbst. Erscheint nun ein Braunbär vor verschneiter Landschaft, erkennt die KI diesen fälschlich als Eisbären.

Mithilfe einer Methode namens Explainable AI lassen sich solche Fehler aufspüren. Dabei zeigt der Deep-Learning-Algorithmus, welche Muster er für seine Entscheidung verwendet hat. Wenn es die falschen waren, kann ein Mensch dies an die KI zurückmelden, etwa indem er die richtigen Muster zeigt (zum Beispiel die Umrisse des Bären) oder die falschen als falsch markiert. Dieses Feedback-Verfahren bezeichnen die Forscher als Explanatory Interactive Learning (XIL).

Analyse mehrerer XIL-Verfahren

Die XIL Typologie zentriert um Mensch und Maschine. Die Maschine trifft eine Entscheidung und erklärt diese dem Menschen (hier welche Merkmale für eine Entscheidung, bspw. "1”, wichtig sind). Der Mensch wiederum korrigiert die Entscheidung der Maschine (hier welche Merkmale aus Sicht des Menschenwirklich wichtig oder unwichtig sind). Dieses Feedback nutzt die Maschine für zukünftigeEntscheidungen, wodurch sie verlässlicher wird.

Die Darmstädter Forscher haben nun mehrere existierende XIL-Verfahren untersucht. "Das hatte noch nie jemand systematisch getan", sagt Felix Friedrich. Akribisch analysierten die Forscher, wie die Interaktion mit dem Computer bei den jeweiligen Methoden abläuft und wo Effizienzgewinne möglich sind. Sie unterschieden, welche Komponenten einer Erklärung wichtig sind und welche nicht. "Es stellte sich heraus, dass es nicht nötig ist, tausende von Markierungen an die Maschine rückzumelden, sondern dass oft eine Handvoll Interaktionen reichen", sagt Friedrich. Oft genüge es, der KI zu sagen, was nicht zum Objekt gehört, statt zu definieren, was dazugehört.

Konkret haben die Forscher einer KI die Aufgabe gegeben, eine handgeschriebene "1" zu erkennen. Inder Ecke jedes Trainingsbildes war aber auch ein kleines Quadrat. Wenn der Algorithmus dies fälschlicherweise als relevantes Merkmal für die "1" nimmt, reicht es, das Quadrat als nicht zum Objektgehörig zu markieren. "Das ist viel effektiver, denn generell ist schwierig zu definieren, was zum Beispiele inen Eisvogel auszeichnet", erklärt Friedrich.

Die Darmstädter Forscher haben aus den untersuchten XIL-Verfahren eine Strategie ("Typology") destilliert, mit der sich das beschriebene Abkürzungs-Verhalten effizient beheben lässt.

Folgeprojekt bereits gestartet

Felix Friedrich und seine Kollegen arbeiten schon am nächsten Projekt, das die Interaktion zwischenMensch und Maschine verbessern soll. Diesmal geht es um Text-zu-Bildgeneratoren, die oft einen "Bias" haben. Auf die Anweisung, einen "Firefighter" (das geschlechtsneutrale englische Wort für "Feuerwehrmann") darzustellen, erzeugen sie meist Bilder von weissen Männern mit Feuerwehrhelm, was daran liegt, dass in den Trainingsdaten Bilder von männlichen, weissen Feuerwehrleuten dominieren.Durch menschliche Interaktion wollen die Darmstädter die Trainingsdaten für solche Bildgeneratoren diverser machen, durch Filterung, aber auch durch Hinzufügen von Bildern, etwa von farbigen Feuerwehrleuten. Felix Friedrich kommt damit seinem Ziel einer "Human-guided machine ethics" näher.

Die Autoren der Veröffentlichung forschen an der Technischen Universität Darmstadt, am Hessischen Zentrum für Künstliche Intelligenz hessian.AI und am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Die Forschung ist Teil des Clusterprojekts "3AI - The Third Wave of Artificial Intelligence".

Die Veröffentlichung:

Felix Friedrich, Wolfgang Stammer, Patrick Schramowski & Kristian Kersting: A typology for exploring the mitigation of shortcut behaviour. Nature Machine Intelligence (2023).

Quelle: Text Christian Meier/sip , TU Darmstadt, 10. März 2023
Datenschutz Sicherheit im Umgang mit Daten
Sicherheitsinformationen für das Internet

nach oben

zum Thema Künstliche Intelligenz
Wirtschaft Industrie 4.0 Künstliche Intelligenz und Ethik
Europäische Kommission Künstliche Intelligenz und Ethikleitlinien 2019
Künstliche Intelligenz (KI) Wenn Algorithmen für uns entscheiden 2019
Weltweit erstes ethisches Regelwerk für automatisiertes Fahren 2017
Leitlinien «Künstliche Intelligenz» Schweiz 2020
Quantencomputer erfolgreich in der Praxis angewendet 2023
Web 2.0 Künstliche Intelligenz und Ethik
Ethische Leitlinien für den Einsatz von künstlicher Intelligenz 2022
und Daten in Lehre und Lernen für Pädagogen
Künstliche Intelligenz und Wirtschaft
Landwirtschaft Smart Farming digitale Landwirtschaft
Automatisiertes Fahren Assistenz- und Lenkungssysteme für Fahrzeuge
Industrie 4.0 (Smart Factory)
Künstliche Intelligenz und Gesundheit
Künstliche Intelligenz (KI) erkennt COVID-19 bei 2020
Röntgenbildern zuverlässiger als der Mensch
Links
Externe Links
TU Darmstadt
top
zurueck