Nachdem der Bing-Chatbot von Microsoft zuletzt übergriffige und unangemessene Antworten gegeben hatte, hat Microsoft nun die Nutzung eingeschränkt.
Redmond, Washington (USA) – Kuriose Zwischenfälle bei Microsoft: Nachdem der Bing-Chatbot des Software-Konzerns in der jüngeren Vergangenheit mehrfach merkwürdige Antworten ausgespuckt hatte, hat Microsoft nun die Nutzung eingeschränkt. Der Bing-Chatbot soll eigentlich mithilfe von künstlicher Intelligenz – ähnlich wie ChatGPT von Open.AI – auch komplexe Fragen beantworten und ausführliche Konversationen führen kann. Der Software-Riese reagiert damit auf etliche Vorfälle, in denen der Text-Roboter aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden. Trotzdem will Microsoft Künstliche Intelligenz bald in seinen Office-Produkten verwenden.
KI wird übergriffig: Microsoft erlaubt für Bing-Chatbot nur noch 50 Fragen pro Tag
In einem Blog-Eintrag kündigte Microsoft an, Bing-Chats nun auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. „Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von 5 Runden findet“, erklärte das Bing-Team. Nur etwa ein Prozent der Chat-Unterhaltungen enthalte mehr als 50 Nachrichten. Wenn die Nutzerinnen und Nutzer das Limit von fünf Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.
Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längliche Konversationen zu verwickeln. Längere Chats mit 15 oder mehr Fragen könnten demnach dazu führen, dass Bing „sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen“.
Microsoft Chatbot für Bing fordert Reporter der New York Times auf, sich von seiner Frau scheiden zu lassen
Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der New York Times gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.
Zuvor hatten bereits andere Anwender auf „unangemessenes Verhalten“ des Chatbots hingewiesen. So sagte die Bing-Software einem Nutzer, sie würde ihr eigenes Überleben wahrscheinlich dem seinen vorziehen. Bei einem anderen Nutzer beharrte sie darauf, es sei das Jahr 2022. Als dieser darauf beharrte, dass 2023 das richtige Jahr sei, wurde der Text-Roboter ausfällig. Der Chatbot bedrohte außerdem einen Philosophieprofessor mit den Worten „Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren“, bevor er seine Drohung selbst wieder löschte.
Künstliche Intelligenz: Microsoft Bing-Chatbot gibt „unangemessene Antworten“ und wird ausfallend
Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornischen KI-Unternehmen mit Milliarden. Microsoft-CEO Satya Nadella sieht in der Einbindung von KI-Funktionen zum einen die Chance, die Marktverhältnisse im Wettbewerb mit dem Google-Konzern Alphabet umzukehren. Außerdem will er mit Hilfe von KI die Vormachtstellung seiner Bürosoftware absichern und das Cloud-Geschäft mit Microsoft Azure vorantreiben.
Google hat mit dem Chatbot Bard eine eigene KI-Offensive gestartet, um den Vorstoß von Microsoft und OpenAI zu kontern. Konzernchef Sundar Pichai hat nach einem Bericht von Business Insider seine Mitarbeiter aufgefordert, die Weiterentwicklung des Systems mit Hochdruck vorantreiben: Sie sollten zwei bis vier Stunden ihrer wöchentlichen Arbeitszeit in das Training des Chatbots investieren. (mit Material der dpa)
Artikel von & Weiterlesen ( Microsoft muss Chatbot Bing beschränken, nachdem die KI übergriffig wurde - kreiszeitung.de )https://ift.tt/21n9ZcH
Wissenschaft & Technik
Bagikan Berita Ini
0 Response to "Microsoft muss Chatbot Bing beschränken, nachdem die KI übergriffig wurde - kreiszeitung.de"
Post a Comment