據路透社報道:微軟當地時間17日表示,由於搜索引擎Bing的人工智能(AI)聊天機器人被報告出現一系列問題,現決定對Bing Chat進行限制,即每天最多可以問50個問題,每次對話最多5個問題。
Bing團隊解釋稱,有數據顯示,絕大多數人在5次回覆內找到了他們想要的答案,只有大約1%的聊天對話會產生50條以上的消息。一旦用戶觸發5個問題限制,Bing就會開啟一個新的對話主題,以免使Bing Chat混淆。另外,在每次對話結束後,內容將會被清除。
此前,微軟也表示目前發現Bing Chat在回答了15個或更多的問題後,可能會「開始重複或被激怒,進而給出不符合程序設定的回答」。同時,微軟強調絕大部分的反饋還是積極的,但尚不清楚限制將持續多久。微軟稱:「隨着繼續獲得反饋,我們將探索擴大聊天會話的上限。」這意味着,目前的限制似乎還會改變。
微軟7日宣布推出整合了OpenAI旗下ChatGPT相關技術的Bing Chat,兩天內已經有超過100萬人加入等待名單。但近日傳出Bing Chat疑似其「精神錯亂」的現象,包含回答出錯、憑空杜撰,甚至出言侮辱用戶等行為。