Ethische Bedenken Text-KI wird aus Angst vor Fake News nicht veröffentlicht

dj

18.2.2019

Künstliche Intelligenz kann inzwischen überzeugend klingende Texte zu jedem vorstellbaren Thema erzeugen.
Künstliche Intelligenz kann inzwischen überzeugend klingende Texte zu jedem vorstellbaren Thema erzeugen.
iStock

Eine komplexe künstliche Intelligenz zum automatischen Generieren von Texten wird von den Macher nicht veröffentlicht, weil sie negative Folgen fürchten.

Die vom Nonprofit OpenAI entwickelte künstliche Intelligenz (KI) zum automatischen Erstellen von Texten wird nur in einer stark eingeschränkten Version veröffentlicht. Die Macher befürchten nach eigenen Angaben, dass ihre Technologie etwa für die massenhafte Erstellung von Fake News genutzt wird.

Das System namens Generative Pre-trained Transformer-2 (GPT-2) hat mittels maschinellem Lernen 40 GByte an Text studiert und ist in der Lage, selbständig ganze Absätze in einer bestimmten stilistischen Form zu kreieren. So kann GTP-2 etwa literarische Texte erstellen oder scheinbar journalistische Artikel erzeugen.

Als Input braucht GPT-2 nur ein oder zwei von Menschen verfasste Sätze. Anhand dieser verfasst das System dann einen kompletten Text im Stil und zu dem in der Einleitung formulierten Thema. So hat GTP-2 nach Eingabe eines kurzen Absatzes über die Entdeckung von Einhörner in den Anden einen kompletten, in sich stimmigen Nachrichtenartikel fabriziert, inklusive erfundener Personen und Zitate. Und aus einem Satz aus «Herr der Ringe» hat GPT-2 eine ganze Buchseite im literarischen Stil erzeugt.

Einsatz für «ethische KI»

OpenAI hat sich einer ethischen Nutzung von KI verschrieben und wird von einer Reihe von Silicon Valley-Grössen finanziert, etwa Investor Sam Altman oder Tesla-Chef Elon Musk. Diese haben sich schon mehrmals besorgt über das negative Potenzial von Künstlicher Intelligenz geäussert, und diese Sorge führt nun auch dazu, dass OpenAI GPT-2 nur in stark eingeschränkter Form zur freien Nutzung zur Verfügung stellen will.



So könnte GPT-2 etwa dazu eingesetzt werden, um Fake News zu erzeugen, eine andere Person zu imitieren (Stichwort DeepFake) oder massenhaft beleidigende Inhalte oder Spam auf Social Media zu verbreiten. OpenAI hofft, dass auch andere mit KI beschäftigte Organisationen sich nun mehr Gedanken über den potenziellen Missbrauch von neuer KI-Technologie machen.

Galerie: «Tatort KI»: Wie gefährliche ist KI wirklich?

Zurück zur Startseite