Studie zweifelt Wie intelligent ist Künstliche Intelligenz wirklich?

dj

12.3.2019

Künstliche Intelligenz ist nicht immer so clever, wie sie erscheint.
Künstliche Intelligenz ist nicht immer so clever, wie sie erscheint.
iStock

Künstliche Intelligenz ist inzwischen fast überall im Einsatz. Doch wie klug ist sie wirklich oder wird hier vielleicht geschummelt?

Quasi jedes Smartphones und jeder Online-Dienst bietet inzwischen Künstliche Intelligenz-Features an. Und wenn Google Fotos ein Bild richtig erkennt oder Amazon Alexa eine Frage korrekt beantwortet, ist das durchaus beeindruckend.

Doch für Aussenstehende ist meistens nicht zu erkennen, warum eine Künstliche Intelligenz zu einen bestimmten Ergebnis kommt. Hat sie eine Situation wirklich intelligent wie ein Mensch analysiert und wurde hier einfach geschummelt?

Damit befasst sich nun eine im Magazin «Nature Communication» veröffentlichte Studie von Wissenschaftlern der Technischen Universität Berlin, des Fraunhofer Heinrich-Hertz-Instituts und der Singapore University of Technology and Design. Sie betrachtet nicht die Ergebnisse eines KI-Systems, sondern dessen Entscheidungsfindung.

So clever wie ein Pferd?

Die Forscher vergleichen ihre Ergebnisse mit dem Klugen Hans. Hans war ein Orlow-Traber im Besitz des preussischen Lehrers Wilhelm von Osten. Dieser tourte in den ersten Jahren des 20. Jahrhundert durch Deutschland und demonstrierte die vermeintlichen Mathematikkenntnisse des Pferdes. Es beantworte per Hufklopfen arithmetische Aufgaben, fast immer richtig. Als «Berlin’s Wonderful Horse» schaffte es Hans sogar in die «New York Times»

Doch der Hengst konnte nicht wirklich rechnen, wie 1904 eine Kommission der Preussischen Akademie der Wissenschaften herausfand. Stattdessen erkannte der Kluge Hans die Körpersprache des Fragestellers, die unbewusst die richtigen Antworten verriet.

Der Kluge Hans und Wilhelm von Osten.
Der Kluge Hans und Wilhelm von Osten.
Gemeinfrei

Der Kluge Hans des 21. Jahrhunderts

Laut den Forschern wird eine Art Kluger Hans-Strategie auch von vielerlei Künstlichen-Intelligenz-Systemen eingesetzt. Sie nehmen nicht den direkten Weg zur Lösung einer Aufgabe sondern betrachten stattdessen den Kontext.

Als ein Beispiel führen die Wissenschaftler die automatische Erkennung eines Schiffes auf Bilder an. Menschen erkennen ein Schiff etwa an seinem Mast — bei einem Segelschiff — oder an einem Steuerhaus bei motorisierten Schiffen.

Eine KI mit Kluger Hans-Strategie nimmt dagegen einfach die Präsenz von Wasser als Anzeichen dafür, dass es sich bei einem abgebildeten Objekt um ein Schiff handeln muss. Das führt zu einen hohen Erfolgsquote, denn Schiffe auf Land oder Häuser im Meer sind eher unüblich. Die KI ist aber genau genommen nicht in der Lage, das Objekt Schiff wirklich zu erkennen.

Warum ist das ein Schiff? Klar, weil es im Wasser ist.
Warum ist das ein Schiff? Klar, weil es im Wasser ist.
Nature Communications/CC-BY

Problematisch bei vielen Einsätzen

Geht es um automatische Bilderkennung etwa für Fotodienste, ist dieser Prozess völlig ausreichend, denn das Ergebnis zählt. Bei anderen Anwendungen, bei denen es darauf ankommt, dass die KI auch wirklich das kann, was sie verspricht, ist es problematischer.

«Insbesondere in der medizinischen Diagnostik oder in sicherheitskritischen Systemen dürfen wir keine KI-Algorithmen mit unsicheren Problemlösungsstrategien oder sonstige KI-Schummel-Kandidaten einführen», so Prof. Klaus Robert Müller von der TU Berlin. Er schätzt, dass knapp die Hälfte der im Einsatz befindlichen KI-Systeme eine Kluger Hans-Strategie verwenden.

Bilder des Tages

Zurück zur Startseite