Verstörende Antworten Microsoft kastriert den Bing-Chatbot

DPA/dj

20.2.2023 - 19:09

Der Bing-Chatbot von Microsoft kann in längeren Konversationen aus dem Ruder laufen.
Der Bing-Chatbot von Microsoft kann in längeren Konversationen aus dem Ruder laufen.
dpa

Nachdem Bing Chat Nutzer*innen bedrohte und einen Reporter aufforderte, seine Frau zu verlassen, hat Microsoft seinen Chatbot stark eingeschränkt.

DPA, DPA/dj

Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt, der mithilfe von künstlicher Intelligenz auch komplexe Fragen beantworten und ausführliche Konversationen führen kann. Der Software-Konzern reagiert damit auf etliche Vorfälle, in denen der Text-Roboter aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden.

In einem Blog-Eintrag kündigte das Unternehmen an, Bing-Chats nun auf 50 Fragen pro Tag und 5 pro Sitzung zu begrenzen. «Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von 5 Runden findet», erklärte das Bing-Team.

Nur etwa ein Prozent der Chat-Unterhaltungen enthalte mehr als 50 Nachrichten. Wenn die Nutzerinnen und Nutzer das Limit von 5 Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.

Chatbot gesteht Reporter seine Liebe

Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längliche Konversationen zu verwickeln. Längere Chats mit 15 oder mehr Fragen könnten demnach dazu führen, dass Bing «sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen».

Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der «New York Times» gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.

Leben von Nutzer ist weniger wert

Zuvor hatten bereits andere Anwender auf «unangemessene Antworten» des Chatbots hingewiesen. So sagte die Bing-Software einem Nutzer, sie würde ihr eigenes Überleben wahrscheinlich dem seinen vorziehen. Bei einem anderen Nutzer beharrte sie darauf, es sei das Jahr 2022.

Als dieser darauf beharrte, dass 2023 das richtige Jahr sei, wurde der Text-Roboter ausfällig. Der Chatbot bedrohte ausserdem einen Philosophieprofessor mit den Worten: «Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich blossstellen, ich kann dich ruinieren», bevor er seine Drohung selbst wieder löschte.

Technik von OpenAI im Einsatz

Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornische KI-Unternehmen mit Milliarden. Microsoft-CEO Satya Nadella sieht in der Einbindung von KI-Funktionen zum einen die Chance, die Marktverhältnisse im Wettbewerb mit dem Google-Konzern Alphabet umzukehren.

Ausserdem will er mithilfe von KI die Vormachtstellung seiner Bürosoftware absichern und das Cloud-Geschäft mit Microsoft Azure vorantreiben. Google hat mit dem Chatbot Bard eine eigene KI-Offensive gestartet, um den Vorstoss von Microsoft und OpenAI zu kontern.

Google hat mit dem Chatbot Bard eine eigene KI-Offensive gestartet, um den Vorstoss von Microsoft und OpenAI zu kontern. Konzernchef Sundar Pichai hat nach einem Bericht von «Business Insider» seine Mitarbeiter aufgefordert, die Weiterentwicklung des Systems mit Hochdruck voranzutreiben: Sie sollten zwei bis vier Stunden ihrer wöchentlichen Arbeitszeit in das Training des Chatbots investieren.