Perverses Gedankengut Weshalb AI-Games noch einen langen Weg vor sich haben

Von Martin Abgottspon

11.5.2021

AI eröffnet auch der Spiele-Branche komplett neue Möglichkeiten.
AI eröffnet auch der Spiele-Branche komplett neue Möglichkeiten.
Reddit

Durch künstliche Intelligenz könnten Games in Zukunft für jeden Spieler ein individuelles Abenteuer darstellen. Erste Experimente zeigen nun aber Probleme auf, die nicht den Maschinen geschuldet sind.  

Von Martin Abgottspon

11.5.2021

Der Abenteuergeist in Videospielen ist heutzutage etwas verloren gegangen. Wer an einer Stelle nicht weiterkommt, fragt Google um Rat oder schaut sich gleich direkt eine Komplettlösung auf Youtube an. Während man früher noch ganze Nächte an einem Rätsel herumexperimentiert hat, wartet die Lösung mittlerweile nur einen Mausklick entfernt im Netz.



Eine Technologie, die diesen Trend ändern könnte, ist AI. Durch sie werden Spiele komplett individualisiert. Jeder erlebt sein eigenes Abenteuer, trifft auf andere Bösewichte und findet andere nützliche Gegenstände. Das eigene Verhalten beeinflusst die Geschichte mit jeder Aktion. Doch was für viele Gamer*innen wie ein Traum klingt, hat auch seine Schattenseiten. 

Text-Abenteuer 2.0

Mit «AI Dungeon» lancierte das Start-up Latitude aus Utah vor zwei Jahren ein erstes grösseres Spiele-Experiment, das auf künstlicher Intelligenz aufgebaut ist. Es handelt sich dabei um ein simples Text-Adventure, ähnlich, wie man sie noch aus den Achtzigerjahren kennt. Aber eben mit dem Unterschied, dass jede Aktion des Spielers zu völlig neuen und unvorhersehbaren Wendungen im Spiel führt. Ein erster Meilenstein in der Welt der AI-Games, der technisch auch bereits gut funktioniert. 

Es gibt aber ein anderes Problem, wie ein eingeführtes Überwachungssystem jetzt aufgezeigt hat. Spieler missbrauchen das Spiel für die Generierung von Geschichten, die gesetzlich schon strafbar sind. Sexuelle Begegnungen mit Kindern finden sich darin ebenso wie sexuelle Handlungen mit Toten. 

Eine simple Eingabemaske mit ausgefeilten Algorithmen im Hintergrund: So sieht «AI Dungeon» aus.
Eine simple Eingabemaske mit ausgefeilten Algorithmen im Hintergrund: So sieht «AI Dungeon» aus.
Latitude

Eine AI-Zukunft, die keiner will

Es dauerte nicht lange, bis sich OpenAI in diesen Diskurs eingeschaltet hat und die Entwickler dazu anhielt, sofortige Massnahmen zu ergreifen. «Entscheidungen zur Inhaltsmoderation sind in manchen Fällen schwierig, aber nicht in diesem», sagte OpenAI-CEO Sam Altman in einem Statement. «Das ist nicht die Zukunft für künstliche Intelligenz, die irgendjemand von uns will.»



OpenAI ist ein Non-Profit-Unternehmen, das sich zentral mit der Frage der «existenziellen Bedrohung durch künstliche Intelligenz» auseinandersetzt. Die von Elon Musk mitfinanzierte Organisation soll so dazu beitragen, dass AI und Menschen harmonisch nebeneinander existieren können. 

Die Entwickler von Latitude kamen dem Wunsch von OpenAI schliesslich ohne grosse Widersprüche nach, doch dies brachte das Fass erst richtig ins Rollen.

Das Problem der Inhaltsmoderation

Plötzlich sahen sich die Nutzer von «AI Dungeon» verständlicherweise als Versuchskaninchen, mit massiven Eingriffen in ihre Privatsphäre. Schliesslich erhalten die Betreiber des Spiels so sogar intimste Details aus den Gedankenwelten jedes einzelnen Spielers. Eine Tatsache, die genauso besorgniserregend ist, wie die absurden Perversionen, die ihren Weg ins Spiel gefunden haben. 

«Die Community fühlt sich betrogen, dass Latitude private fiktionale literarische Inhalte scannt und manuell darauf zugreift und liest», sagt ein AI Dungeon-Spieler, der auf den Namen Mimi hört und behauptet, mithilfe der KI insgesamt mehr als eine Million Wörter geschrieben zu haben, darunter Gedichte, Parodien und erotische Abenteuer. Mimi und andere verärgerte Nutzer sagen, dass sie den Wunsch des Unternehmens verstehen, öffentlich sichtbare Inhalte zu kontrollieren, aber sie sagen, dass es zu weit gegangen ist und eine mächtige kreative Spielwiese ruiniert hat. «Es hat mir erlaubt, Aspekte meiner Psyche zu erforschen, von denen ich nie wusste, dass sie existieren», sagt Mimi. 

Berge aus Daten

Wie und in welchem Ausmass geschieht also Inhaltsmoderation? Eine zentrale Frage, die man sich in Zukunft wohl noch oft stellen wird. Welche sexuellen Handlungen oder Delikte sind fiktional noch vertretbar und welche nicht? Hier Listen und Filter anzufertigen, ist aktuell ein grosser Bestandteil verschiedener Forschungen und Arbeiten auf diesem Gebiet.



«Allerdings ist es immer schwer, zu wissen, wie sich Sprachmodelle in der freien Wildbahn verhalten», sagt Suchin Gururangan, ein Forscher an der University of Washington auf diesem Gebiet. Er erarbeitet verschiedene Sprachsysteme und bringt den Maschinen auch bei, aus welchen Inhalten sie lernen. 

Kein einfaches Unterfangen bei Hunderten von Millionen an Wörtern, die es auf der Welt gibt. Das Duden-Korpus, eine elektronische Datenbank, geht davon aus, dass allein die deutsche Sprache rund 23 Millionen Wörter umfasst. Aus Sicht der Maschinen ergeben sich daraus astronomisch hohe Kombinationsmöglichkeiten und Berge von Daten, für die man wohl noch ein paar Jahre brauchen wird, um ohne Gewissenskonflikte den Horizont sehen zu können.