Mensch an Maschine: KI-Erklärung umgekehrt

Nachdem im zuvor veröffentlichen Beitrag zum Thema XAI demonstriert wurde, wie Nutzer:innen Fehler einer künstlichen Intelligenz (KI) nachvollziehen können, geht es nun darum, wie es von dort weitergehen kann. Ist die XAI zwar hilfreich, Verständnis für ein System zu schaffen, nützt sie weniger, wenn man dieses korrigieren und verbessern möchte. Denken wir zurück an das Beispiel des Forschers, der eine KI trainieren wollte, Huskys von Wölfen zu unterscheiden, diese aber sämtliche Bilder mit Schnee fälschlicherweise als Wolf deklarierte. Ein Fehler, der einem durch XAI auffiele, nicht aber leicht zu lösen wäre, wenn man nicht sämtliche Trainingsdaten noch einmal neu auflegen wollte. Die Lösung dazu bieten Feedback-Mechanismen, die es erlauben, der KI zurück zu melden, ob das, was sie herausgearbeitet hat, korrekt ist, um daraus wieder zu lernen.

Dies geschieht durch so genanntes interactive machine learning (interaktives maschinelles Lernen, kurz: IML), welches sich von dem klassischen maschinellen Lernen darin unterscheidet, dass neben den Trainingsdaten ein besonderer Fokus auf die Rückmeldungen des Menschen liegt. Jene Rückmeldungen bestehen dabei je nach Einsatzgebiet aus Bestätigung oder Korrektur von Werten oder weiterführende Informationen an die KI – bspw. ob eine E-Mail das Thema Hockey oder Baseball hat und anhand welcher Begriffe sie dies festmachen könnte. Der Zeitpunkt, an dem das Feedback erfolgen kann oder muss, unterscheidet sich dabei oft von System zu System und ist abhängig davon, ob der Mensch Teil des Prozesses ist und etwas rückmelden muss, bevor die KI weiterarbeitet, oder diesen lediglich beaufsichtig und jederzeit eingreifen kann, die KI ansonsten aber autonom agiert. Diese Methoden sind als human-in-the-loop, bzw. human-on-the-loop bekannt. Die Art des Feedbacks ist davon abhängig, mit was für einer Art von Daten die KI arbeitet und welche sie ausgibt. So benötigten System, welche die Aufgabe haben, Bearbeitungszeiten oder ähnliche Dauern vorherzusagen als Rückmeldung tatsächlich stattgefundenen Zeiten, wohingegen eine zeichenauslesende KI eine Bestätigung oder Korrektur der ausgelesenen Werte benötigt. Im Kontext einer KI die anhand einer Zielfarbe angeben soll, wie viel Prozent welcher Pigmente dafür benötigt werden wäre es denkbar, einen Mechanismus zu implementieren, womit man die Prozentwerte bestätigen oder korrigieren kann.

Die Möglichkeit, der KI Korrekturen oder Validierungen zurück zu melden, sollte daher immer gegeben sein, wenn man als Unternehmen plant, eine lernende KI einzusetzen – nicht zuletzt, da eine solche fehlende Option auch zu Frust mit und sinkendem Vertrauen gegenüber dem System führen kann. Doch auch hier ist es wichtig, die Bedürfnisse der Arbeitnehmer:innen nicht außer Acht zu lassen, die diese Aufgabe letztlich erfüllen sollen. So ist die Implementierung von Feedback-Mechanismen zwar ein wichtiges und notweniges Werkzeug, jedoch vergebens, wenn sie nicht genutzt werden. Sie müssen sich in den Arbeitsalltag einpflegen ohne als Extraarbeit wahrgenommen zu werden, um eine so genannte survey fatigue – also eine Ermattung durch zu viele Anfragen – zu vermeiden. Dazu gehört neben einem möglichst geringen Zeitaufwand auch, die Funktion schnell finden zu können und sie möglichst schlicht zu halten, um nicht gefühlt unnötig viel Arbeitszeit in etwas zu stecken, die man woanders mehr bräuchte. Es lohnt sich also auch ein Blick in die bestehenden Arbeitsrhythmen um herauszufinden, wie und wo ein solches System bestmöglichen Anklang findet. Eine Aufgabe, bei der Ihnen das Zukunftszentrum sehr gerne behilflich ist.


Zurück

Das Projekt Zukunftszentrum KI NRW wird im Rahmen des Programms Zukunftszentren durch das Bundesministerium für Arbeit und Soziales und vom Ministerium für Arbeit, Gesundheit und Soziales NRW sowie durch die Europäische Union über den Europäischen Sozialfonds Plus (ESF Plus) gefördert.