Ethische BedenkenText-KI wird aus Angst vor Fake News nicht veröffentlicht
dj
18.2.2019
Eine komplexe künstliche Intelligenz zum automatischen Generieren von Texten wird von den Macher nicht veröffentlicht, weil sie negative Folgen fürchten.
Die vom Nonprofit OpenAI entwickelte künstliche Intelligenz (KI) zum automatischen Erstellen von Texten wird nur in einer stark eingeschränkten Version veröffentlicht. Die Macher befürchten nach eigenen Angaben, dass ihre Technologie etwa für die massenhafte Erstellung von Fake News genutzt wird.
Das System namens Generative Pre-trained Transformer-2 (GPT-2) hat mittels maschinellem Lernen 40 GByte an Text studiert und ist in der Lage, selbständig ganze Absätze in einer bestimmten stilistischen Form zu kreieren. So kann GTP-2 etwa literarische Texte erstellen oder scheinbar journalistische Artikel erzeugen.
Als Input braucht GPT-2 nur ein oder zwei von Menschen verfasste Sätze. Anhand dieser verfasst das System dann einen kompletten Text im Stil und zu dem in der Einleitung formulierten Thema. So hat GTP-2 nach Eingabe eines kurzen Absatzes über die Entdeckung von Einhörner in den Anden einen kompletten, in sich stimmigen Nachrichtenartikel fabriziert, inklusive erfundener Personen und Zitate. Und aus einem Satz aus «Herr der Ringe» hat GPT-2 eine ganze Buchseite im literarischen Stil erzeugt.
Einsatz für «ethische KI»
OpenAI hat sich einer ethischen Nutzung von KI verschrieben und wird von einer Reihe von Silicon Valley-Grössen finanziert, etwa Investor Sam Altman oder Tesla-Chef Elon Musk. Diese haben sich schon mehrmals besorgt über das negative Potenzial von Künstlicher Intelligenz geäussert, und diese Sorge führt nun auch dazu, dass OpenAI GPT-2 nur in stark eingeschränkter Form zur freien Nutzung zur Verfügung stellen will.
So könnte GPT-2 etwa dazu eingesetzt werden, um Fake News zu erzeugen, eine andere Person zu imitieren (Stichwort DeepFake) oder massenhaft beleidigende Inhalte oder Spam auf Social Media zu verbreiten. OpenAI hofft, dass auch andere mit KI beschäftigte Organisationen sich nun mehr Gedanken über den potenziellen Missbrauch von neuer KI-Technologie machen.
Galerie: «Tatort KI»: Wie gefährliche ist KI wirklich?
«Tatort: KI»: Wie gefährlich ist Künstliche Intelligenz wirklich?
Merkwürdige Zeugenbefragung (von links): Ivo Batic (Miroslav Nemec), Franz Leitmayr (Udo Wachtveitl) sowie die Eltern Degner (Dirk Borchardt und Lisa Martinek) machte die KI-Software ratlos.
Bild: BR / Hendrik Heiden / Bavaria Fiction GmbH
Franz Leitmayr (Udo Wachtveitl, links) und Ivo Batic (Miroslav Nemec) mussten die verschwundene Melanie finden. Doch zunächst wussten sie gar nicht, ob überhaupt ein Fall für sie vorlag.
Bild: BR / Hendrik Heiden / Bavaria Fiction GmbH
Ein Blickfang: Die kesse Computer-Expertin Anna Velot (Janina Fautz) machte Kriminaler Kalli (Ferdinand Hofer) ein unmoralisches Angebot.
Bild: BR / Hendrik Heiden / Bavaria Fiction GmbH
Von Nebendarstellerin Anna Velot (Janina Fautz) möchte man gern mehr sehen.
Bild: BR / Hendrik Heiden / Bavaria Fiction GmbH
Die Kriminalhauptkommissare Franz Leitmayr (Udo Wachtveitl, links) und Ivo Batic (Miroslav Nemec, mit Janina Fautz) rätselten lange: Wusste das KI-Programm aus dem Rechenzentrum vielleicht mehr?
Bild: BR / Hendrik Heiden / Bavaria Fiction GmbH
Hochgefährliche Verführung aus dem Netz: Die 14-jährige Melanie (Katharina Stark) verbrachte viel zu viel Zeit vor ihrem Computer. Die KI-Maschine trieb sie in den Tod.
Wie sexy meine KI-Freundin ist und wie schnell ich trotzdem Schluss machte
Eine Freundin kann man sich neuerdings auch ganz einfach digital zulegen. Doch für wen eignet sich die KI-Freundin und was sind die Tücken?
30.11.2023
Lockanrufe auf Whatsapp: Konsumenschützer warnen vor Rückrufen
Aktuell häufen sich Warnungen vor sogenannten Ping-Calls, besonders auf WhatsApp. Doch was steckt eigentlich dahinter? Anruferinnen und Anrufer aus verschiedenen Ländern wie Indien, dem Iran oder Mexiko lassen Ihr Handy einmal klingeln und legen dann auf. Ziel ist es, zu einem Rückruf zu verleiten, warnt die Verbraucherzentrale Rheinland-Pfalz.
Hinter diesen Anrufen verbergen sich oft Betrugsversuche. Die Maschen sind vielfältig – von der Aufforderung, sensible Daten preiszugeben, bis hin zu Geldforderungen oder dem Versuch, Ihren WhatsApp-Account zu übernehmen.
Betroffene erkennen Ping-Calls an den Ländervorwahlen etwa für Indien (+91), den Iran (+98) oder Mexiko (+52). In keinem Fall sollte man die unbekannten Nummern zurückrufen.
Verbraucherschützerinnen und -schützer raten Betroffenen dazu, Anrufe von Unbekannt einfach in der App zu blockieren. Das klappt in den Whatsapp-Einstellungen. Danach werden nur noch Anrufe von eingespeicherten Kontakten durchgelassen.
22.02.2024
Elternabend – Das erste Smartphone für mein Kind
Das Smartphone ist für Kinder und Jugendliche ein unverzichtbarer Begleiter. Doch es birgt auch Gefahren wie Cybermobbing, Sucht und der Zugang zu unangemessenem Inhalt. Medienpädagogen diskutieren mit dem Publikum über Chancen und Risiken.
15.11.2023
Wie sexy meine KI-Freundin ist und wie schnell ich trotzdem Schluss machte
Lockanrufe auf Whatsapp: Konsumenschützer warnen vor Rückrufen