Ausser Kontrolle? Künstliche Intelligenz: Experten warnen vor ihrer eigenen Schöpfung

Von Matt O'Brien, AP

6.7.2018

Die Künstliche Intelligenz (KI) steckt noch in den Kinderschuhen. Trotzdem werden jetzt schon erste Stimmen laut, wonach die Konsequenzen von «intelligenter» Technik schwierig einzuschätzen sind.
Die Künstliche Intelligenz (KI) steckt noch in den Kinderschuhen. Trotzdem werden jetzt schon erste Stimmen laut, wonach die Konsequenzen von «intelligenter» Technik schwierig einzuschätzen sind.
iStock

Künstliche Intelligenz ist ein Milliardengeschäft. Oft geht es dabei um spielerische Elemente, die den Alltag erleichtern. Doch zum Teil dient sie auch der Überwachung. Autoritäre Regime erhalten durch Entwicklungen des Silicon Valley beängstigende Möglichkeiten.

Das Angebot war verlockend – Rana el Kaliouby und ihre Kollegen mussten daher lange mit sich ringen. Am Ende lehnten sie ab.
Denn die Investoren, die sich für ihre Software zur Gesichtserkennung interessierten, hatten Verbindungen zum Geheimdienst CIA. «Wir wollen keine Anwendungen unterstützen, mit denen dann Leute ausspioniert werden», sagt die Chefin des Start-ups Affectiva.

Programm erfasst Emotionen

Auf Basis von künstlicher Intelligenz (KI) hat die kleine Firma aus Boston ein Programm entwickelt, das Emotionen erfasst. Ist eine Person traurig oder glücklich, müde oder wütend? Durch Abgleich mit Fotos von mehr als sechs Millionen Gesichtern liefert das System schnell die Antwort. Affectiva liegt damit voll im Trend. Auch Giganten der Branche wie Facebook und Google setzen zunehmend auf das «Sehvermögen» von Computern – und vor allem auf die Verarbeitung der dabei gewonnenen Daten.

Welche Emotionen zeigt ein Gesicht? Das lässt sich jetzt per Programm auswerten - und so für Erkenntnisse in Werbung oder zu Sicherheitszwecken nutzen.
Welche Emotionen zeigt ein Gesicht? Das lässt sich jetzt per Programm auswerten - und so für Erkenntnisse in Werbung oder zu Sicherheitszwecken nutzen.
Affectiva

Es sei gut denkbar, dass sich auf diese Art bald in Echtzeit prüfen lasse, ob jemand ehrlich sei, sagt el Kaliouby. Für einen Diktator wäre es der IT-Expertin zufolge dann aber auch möglich, etwa die Reaktionen auf eine politische Rede zu prüfen – und jeden Widerspruch im Keim zu ersticken. Ihre Firma lasse daher die Hände von allem, was mit «Sicherheit, Flughäfen und Lügendetektoren» zu tun habe. Stattdessen arbeite Affectiva mit Autoherstellern zusammen, um Fahrer vom Einschlafen am Steuer abzuhalten, sagt el Kaliouby. Oder mit Konsumgüter-Marken, die mithilfe der Technik mehr über die Akzeptanz eines neuen Produkts erfahren könnten.

Das moralische Dilemma

Das Beispiel des Bostoner Start-ups zeigt, wie sehr die Branche derzeit auch vor moralischen Herausforderungen steht. Eine mit Kameras ausgestattete künstliche Intelligenz eröffnet schliesslich enorme Potenziale – zur kommerziellen Verwertung ebenso wie zu Missbrauch jeglicher Art. Und gerade von Seiten der Behörden scheint das Interesse an der Technik derzeit zu wachsen.

«Sophia» ist ein humanoider Roboter, erstmals aktiviert 2015 in Hong Kong. In den vergangenen drei Jahren tourte das Projekt-Team um Sophia um die Welt und präsentierte den Roboter als Beispiel für angewandte künstliche Intelligenz.
«Sophia» ist ein humanoider Roboter, erstmals aktiviert 2015 in Hong Kong. In den vergangenen drei Jahren tourte das Projekt-Team um Sophia um die Welt und präsentierte den Roboter als Beispiel für angewandte künstliche Intelligenz.
Getty Images

Kurz nach dem Attentat auf eine Zeitungsredaktion in Annapolis in der vergangenen Woche nutzte die Polizei zur Identifizierung des Festgenommenen nach eigenen Angaben Gesichtserkennung, da eine Fingerabdruck-Analyse nicht zu haben war. Dabei griffen sie nicht nur auf Fotos von bisherigen Straftätern und Verdächtigen zurück, sondern auch auf Fotos von allen Personen, die im US-Staat Maryland einen Führerschein beantragt hatten.

Videosysteme stellen Sünder bloss

Im Juni kündigten die Betreiber des Flughafens von Orlando in Florida an, noch in diesem Jahr obligatorische Gesichtserkennungsscans für alle Passagiere auf internationalen Flügen einzuführen. Andere amerikanische Flughäfen nutzen die Technik bereits vereinzelt. In einem neuen Geschäft ohne Kassierer von Amazon in Seattle registrieren Kameras und Sensoren, welche Ware ein Käufer aus den Regalen nimmt. In China werden intelligente Videosysteme eingesetzt, um Fussgänger, die sich nicht an die Verkehrsregeln halten, sofort zu identifizieren und blosszustellen.

Voll automatisiert: In China, hier in Jinan, erkennen Videosysteme bereits Verkehrssünder. Wer beispielsweise bei Rot über die Strasse läuft, wird identifiziert und verwarnt. Auch ein automatisiertes Strafen-System wäre damit denkbar.
Voll automatisiert: In China, hier in Jinan, erkennen Videosysteme bereits Verkehrssünder. Wer beispielsweise bei Rot über die Strasse läuft, wird identifiziert und verwarnt. Auch ein automatisiertes Strafen-System wäre damit denkbar.
Weibo

Google-Mitarbeiter wollen Krieg mit KI verhindern

Bei allem Potenzial gibt es auch in den grossen Unternehmen mitunter Skrupel. Google erklärte kürzlich – nach Protesten von Mitarbeitern – seinen Rückzug aus einem militärischen Projekt, bei dem künstliche Intelligenz zur Auswertung von Drohnenvideos aus dem Irak und aus anderen Konfliktregionen eingesetzt wird. Auch bei Microsoft und Amazon gab es interne Debatten im Hinblick auf bestimmte Aufträge der Regierung.

Google hat inzwischen eigene Richtlinien zur künstlichen Intelligenz vorgestellt. Demnach sollen nur noch Anwendungen verbreitet werden, die «für die Gesellschaft nützlich» sind und die «unfaire Vorurteile» vermeiden. Amazon hingegen verkauft trotz zunehmenden Drucks von Mitarbeitern wie von Aktivisten seine Gesichtserkennungssoftware namens Rekognition auch weiterhin an Polizeibehörden und andere öffentliche Einrichtungen.

Google-Mitarbeiter verlangen Austritt aus Kriegstechnologie

Allen Beteiligten dürfte derweil klar sein, dass die Ablehnung eines Auftrags im Grunde nur dazu führt, dass andere den Job übernehmen. Ziel des Drohnenprojekts mit Google sei es gewesen, nach «Mustern des Alltags, verdächtigen Vorkommnissen und Hinweisen auf potenzielle Angriffe» zu suchen, sagt der frühere Vize-Pentagon-Chef Robert Work. Der Ausstieg von Google sei ein Rückschlag, da das Unternehmen «sehr, sehr gut darin» gewesen sei. Mithilfe anderer Partner könne die Arbeit aber trotzdem fortgesetzt werden.

Inzwischen benennt der Computer schon Katzenrassen

Die Entwicklung im Bereich künstliche Intelligenz schreitet seit einigen Jahren rasch voran. Noch 2012 war es eine Herausforderung, einen Computer in YouTube-Videos automatisch nach Katzen suchen zu lassen. Inzwischen gibt es eine Google-App, die gleich die jeweiligen Katzenrassen nennt. Eine der massgeblichen Expertenrunden, die jährliche Conference on Computer Vision and Pattern Recognition im Juni in Salt Lake City, habe sich in kürzester Zeit von einer verschlafenen Akademikerversammlung in eine Messe in Goldrauschstimmung verwandelt, die grosse Unternehmen und Regierungsbehörden anziehe, sagte der Informatiker und Mitorganisator Michael Brown von der York University in Toronto.

Forscher hätten an Ort und Stelle Angebote für hoch bezahlte Jobs bekommen, sagt Brown. Nur in wenigen der Tausenden eingereichten Fachpapiere gehe es hingegen um ethische Bedenken, räumt der Experte ein.

Digitale Überwachung: China schafft mittels KI den «besseren Menschen»

Zurück zur Startseite