Beschränkt Chatbot-Nutzung: Microsoft (Logobild: MS)

Der US-Software-Riese Microsoft hat die Nutzung seines auf künstlicher Intelligenz beruhenden Bing-Chatbots eingeschränkt. Damit reagiert der Konzern aus Redmond auf Vorfälle, bei denen der Textroboter, der eigentlich komplexe Fragen beantworten und ausführliche Konversationen führen sollte, aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen angesehen wurden.

Die Redmoner kündigten nun via Blog-Eintrag kündigte an, Bing-Chats nun auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. "Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von fünf Runden finden", erklärte dazu die Bing-Mannschaft. Nur etwa ein Prozent der Chat-Unterhaltungen enthalte mehr als 50 Nachrichten. Wenn die Anwender das Limit von fünf Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.

Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längere Konversationen zu verwickeln. Chats mit 15 oder mehr Fragen könnten dazu führen, dass Bing "sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen".

Zuletzt hatte ein Bing-Chatbot-Test eines Reporters der "New York Times" (NYT) für Aufsehen im Netz gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.