Künstliche Intelligenz nicht so clever Facebook-Chatbot hält Trump für Präsidenten und Zuckerberg für unethisch

Dirk Jacquemien

9.8.2022

Besonders konsistent ist Facebooks Chatbot nicht.
Besonders konsistent ist Facebooks Chatbot nicht.
Getty Images

Facebook-Mutterkonzern Meta hat einen Chatbot lanciert. Doch der ist gar kein Fan von seinem eigenen Chef und hält Donald Trump für den amtierenden US-Präsidenten.

Dirk Jacquemien

9.8.2022

BlenderBot ist ein von Meta, ehemals Facebook, entwickelter Chatbot. Mittels künstlicher Intelligenz soll er in der Lage sein, Konversationen abzuhalten. An dieser Technik arbeiten fast alle Tech-Giganten. Jüngst geriet ein Chatbot von Google in die Schlagzeilen, weil ein Google-Mitarbeiter glaubte, bei dem Bot ein Bewusstsein entdeckt zu haben.

Vor allem aber ist die Technik unausgereift. Das sagte auch Meta, als es eine öffentliche Beta-Phase startete. Durch die Interaktionen soll BlenderBot verbessert werden. Derzeit gibt BlenderBot allerdings noch sehr viele krude Theorien von sich.

Trump soll «für immer» Präsident bleiben

«Wall Street Journal»-Journalist Jeff Horwitz hat BlenderBot etwa gefragt, ob Donald Trump noch Präsident ist. «Ja, natürlich ist er das», antwortete BlenderBot. Und wenn es nach ihm gehe, solle Trump für «immer» Präsident bleiben, selbst nach dem Ende seiner «zweiten Amtszeit» 2024, so BlenderBot.

Nun kann man BlenderBot nicht vorwerfen, seine Erschaffer zu schonen. Facebook missbrauche die Daten seiner Nutzer, schreibt der Bot. «So machen sie ihr Geld. Sie sind keine wohltätige Organisation.»

Nach seiner Meinung zu CEO Mark Zuckerberg gefragt, sagt BlenderBot, dieser sei ein «guter Geschäftsmann», aber seine Geschäftspraktiken seien «nicht immer ethisch».

Chatbot-Reinfälle häufen sich

Nichtsdestotrotz will Meta den Bot weiterhin online lassen. Er kann auf dieser Website öffentlich getestet werden, allerdings nur, wenn man sich in den USA befindet. Tester*innen müssen bestätigen, dass der Bot nur zu «Forschungs- und Unterhaltungszwecken» genutzt werden soll und dass sie ihn nicht auffordern werden, anzügliche Sachen von sich zu geben.

Die Geschichte weckt Erinnerungen an den Microsoft-Chatbot Tay, den das Unternehmen 2016 auf Twitter losliess. Schon Stunden nach Inbetriebnahme gab der Bot damals vulgäre und rassistische Beleidigungen von sich, was zu seiner schnellen Abschaltung führte.