Risiko künstliche IntelligenzAffen und dunkelhäutige Menschen sind für Roboter tabu
Von Dirk Jacquemien
25.5.2023
Bilderkennungsfunktionen in Fotodiensten sind inzwischen zum Standardfeature geworden. Doch eine Tierart wollen weder Google noch Apple noch Microsoft identifizieren.
Von Dirk Jacquemien
25.05.2023, 10:51
25.05.2023, 11:21
Dirk Jacquemien
Keine Zeit? blue News fasst für dich zusammen
Fotodienste in der Cloud erkennen automatisch, was auf Bildern zu sehen ist und kategorisieren sie entsprechend.
Doch praktisch alle Dienste weigern sich, Affen zu identifizieren.
Grund ist, dass die Betreiber Sorge haben, dass durch rassistische Fehlidentifikation Zweifel an den Fähigkeiten der künstlichen Intelligenz aufkommen könnten.
Dank Smartphones werden mehr Fotos erstellt als je zuvor. Um diese zu sichern und zu verwalten, setzen viele Nutzer*innen auf Cloud-Dienste. Alle grossen Tech-Konzerne bieten eine Foto-Verwaltung an, meist im Rahmen eines Abo-Angebots. Quasi immer mit dabei ist auch eine Bilderkennungs-Funktion enthalten, die auf künstliche Intelligenz setzt.
So können Nutzer*innen etwa Suchbegriffe wie «Hochhaus» oder «Berg» eingeben und bekommen dann alle Fotos in der eigenen Sammlung zu sehen, auf denen diese Motive zu erkennen sind. Auch einzelne Personen können viele der Dienste erkennen – und natürlich Tiere jeder Art.
Eine Suche nach «Hund» oder «Katze» führt also ganz schnell zu Fotos der, sofern vorhanden, eigenen Haustiere. Aber auch etwas exotische Tiere können die meisten Foto-Dienste in der Cloud problemlos identifizieren. Doch es gibt eine Ausnahme. Google, Apple und Microsoft wollen partout keine Bilder von Affen erkennen.
Es lässt sich fast erahnen, woran das liegen könnte. 2015, als Google-Fotos das Feature zur Bilderkennung erstmals einführte, identifizierte es Fotos von Menschen mit schwarzer Hautfarbe als «Gorillas». Das führte zu berechtigter Aufregung, in deren Folge Google Affen einfach generell von seiner Bilderkennungsfunktion ausschloss.
Die Ursache für diese katastrophale Fehlidentifikation wurde schnell gefunden. Wie zwei ehemalige Google-Mitarbeiter*innen der «New York Times» erzählten, hatte Google in dem Material, mit dem der Bilderkennungsalgorithmus trainiert wurde, kaum Fotos von schwarzen Menschen. Bei internen Tests unter Mitarbeiter*innen fiel das Problem dann auch nicht auf – mutmasslich, weil Google kaum schwarze Angestellte hatte.
Dass Algorithmen und künstliche Intelligenz Diskriminierungen und Stereotypen der realen Welt aufnehmen und teilweise sogar noch verstärken und eben nicht wie ein emotionsloser, rein logisch denkender Roboter arbeiten, ist eine inzwischen weitgehend akzeptierte Tatsache in der Computerwissenschaft.
Nach acht Jahren und scheinbar rasantem Fortschritt bei KI-Technologie besteht das Affen-Verbot bei der Bilderkennung derweil weiter. Und zwar nicht nur bei Google, sondern auch bei den Foto-Diensten von Apple und Microsoft, wie ein Test der «New York Times» belegt.
Einzig Lemuren, die sich mit ihrem meist hellen Fell deutlich von anderen Primaten unterscheiden, wollten zumindest Apple und Google identifizieren. Gorillas oder Schimpansen dagegen wurden kategorisch von der Identifikation ausgeschlossen.
Das zeigt, dass die Tech-Giganten sich offenbar immer noch nicht sicher sind, dass ihre hoch entwickelte künstliche Intelligenz zuverlässig zwischen Mensch und Affe unterscheiden kann. Und es macht deutlich, wo die Unternehmen bereit sind, Risiken mit unausgereifter Technik einzugehen, und wo nicht. Auch Chatbots machen haarsträubende Fehler, hier gibt es allerdings wenig Skrupel, sie auf die Öffentlichkeit loszulassen.
Vermutlich hat sich die Bilderkennungstechnik in den vergangenen Jahren sogar so deutlich verbessert, dass die KI in quasi allen Fällen Menschen und Affen korrekt identifizieren könnte. Doch nur ein einziger Screenshot eines Fotodienstes, bei dem ein Mensch als Affe betitelt würde, wäre ein PR-Desaster für das betreffende Unternehmen. Das wollen die Tech-Giganten nicht riskieren, denn schliesslich ist der Glaube an die Fähigkeiten der künstlichen Intelligenz essenziell für ihre Zukunft.