Studie Amazon und Microsoft an «Killer-Robotern» beteiligt

afp/uri

23.8.2019

Ein unbemanntes und bewaffnetes Kettenfahrzeug. (Symbolbild)
Ein unbemanntes und bewaffnetes Kettenfahrzeug. (Symbolbild)
Bild: Getty Images

Friedensforscher werfen bedeutenden US-amerikanischen Technologiefirmen vor, an der Entwicklung sogenannter «Killer-Roboter» beteiligt zu sein. Dabei handelt es sich um Waffensysteme die selbst entscheiden können, wen sie bekämpfen.

Unternehmen wie Amazon und Microsoft entwickeln gefährliche autonome Systeme, die als Bestandteil tödlicher Waffen genutzt werden können. Das ergab eine in dieser Woche veröffentlichte Studie der niederländischen Nichtregierungsorganisation (NGO) Pax. Pax befragte die 50 wichtigsten Technologieentwickler aus zwölf Ländern über ihre Haltung zu autonomen Waffensystemen.

Die NGO stufte die Unternehmen anhand von drei Kriterien ein: Entwickeln sie Technologie, die zum Bau von «Killer-Robotern» genutzt werden könnte? Arbeiten sie an militärischen Projekten mit, bei denen Künstliche Intelligenz zum Einsatz kommt? Haben sie sich verpflichtet, künftig nicht mehr an solchen Projekten mitzuarbeiten?

21 Unternehmen «stark gefährdend»

Der Studie zufolge handeln 21 Unternehmen «stark gefährdend». Dazu zählen die bekannten Technologieentwickler Microsoft und Amazon, die derzeit um einen Vertrag mit dem US-Verteidigungsministerium zur Datenspeicherung konkurrieren. «Warum bestreiten Unternehmen wie Microsoft und Amazon nicht, dass sie derzeit diese höchst umstrittenen Waffen entwickeln, die ohne direkte menschliche Einwirkung entscheiden könnten, Menschen zu töten?», sagte Studienleiter Frank Slijper.



22 Unternehmen wurden von Pax als «mässig gefährdend» bewertet. Dazu gehört der japanische Hersteller Softbank, der für seinen humanoiden Roboter namens Pepper bekannt ist. Sieben Unternehmen, darunter der Internetriese Google, wurden für ihren Umgang mit Künstlicher Intelligenz in Bezug auf Waffensysteme gelobt.

EU fordert Kontrollgewalt für Mensch bei Waffen

Im vergangenen Jahr hatte Google sich unter anderem aus einem Bieterrennen um einen Cloud-Computing-Auftrag des US-Verteidigungsministeriums zurückgezogen und auf ethische Bedenken verwiesen.

Der Einsatz künstlicher Intelligenz im Militär, etwa um Waffensystemen die automatische Auswahl ihres Ziels zu ermöglichen, wird immer wieder kontrovers diskutiert. Bei einem Kongress der UN-Waffenkonvention am Mittwoch in Genf debattierten Regierungsexperten über politische Massnahmen im Bezug auf autonome Waffen.

Im vergangenen April hatte die Europäische Kommission einen Katalog mit Ethik-Regeln für den Umgang mit Künstlicher Intelligenz veröffentlicht. Dazu zählt unter anderem die Forderung, dass der Mensch stets die Überhand über Waffensysteme bewahren sollte.

Bilder des Tages
Zurück zur Startseite