![](https://d1lss44hh2trtw.cloudfront.net/resize?type=webp&url=https%3A%2F%2Fshacknews-www.s3.amazonaws.com%2Fassets%2Farticle%2F2023%2F03%2F16%2Fmicrosoft-calls-false-ai-replies-usefully-wrong-news_feature.jpg&width=1032&sign=yEZ7grF7Ec4rPF39ax-Kzr6bD7cCA3OeWQ1oGdjWLkc)
Microsoft建議AI工具的用戶意識到AI有可能給出錯誤答案並圍繞它們進行編輯的潛力。
在在線演示文稿中概述了Copilot的功能時,Microsoft針對PowerPoint,Teams和Outlook等辦公應用程序的新型AI驅動聊天技術,該公司在提供錯誤的答案方面解決了AI以前的問題。例如,早在2月,微軟首次推出了使用OpenAI創建的Bing聊天工具的演示,在某些情況下,發現它給出了錯誤的答案。
正如CNBC報導的那樣,研究人員已經開始稱這種現象為AI稱為“幻覺”。這當然是描述它的有趣方法。但是,微軟最近進一步邁出了一步,將這些錯誤的答案描述為“有用的錯誤”。微軟還指出,只要人們意識到Copilot提供不准確的響應的潛力,他們就可以圍繞它們進行編輯,並且仍然使用工具快速發送電子郵件或完成演示幻燈片。
“例如,如果一個人想創建一封電子郵件,希望家庭成員生日快樂,那麼即使出生了錯誤的出生日期,副駕駛仍然會有所幫助。在微軟看來,該工俱生成的文本僅節省了一個人,因此很有用。人們只需要格外小心,並確保文本不包含任何錯誤,”CNBC報告解釋了。
![](https://d1lss44hh2trtw.cloudfront.net/resize?type=webp&url=https%3A%2F%2Fshacknews-www.s3.amazonaws.com%2Fassets%2Feditorial%2F2023%2F03%2Fopenai-microsoft-useful-tools-with-some-inaccuracies.jpg&width=986&sign=oBypNeAKvHyPTMiU_oVcz79zcm9BtaaTU0UjLt78ho4)
CNBC還說,微軟首席科學家Jaime Teevan此前曾確保Microsoft在Copilot遇到錯誤,有偏見或被濫用時具有“緩解”。蒂文說:“我們將犯錯誤,但是當我們這樣做時,我們會迅速解決。”
看到Microsoft如何圍繞AI的運作方式,有可能提供不准確的信息並犯錯誤,這將是很有趣的。很高興聽到微軟意識到這個問題,並正在努力解決問題。
有關Microsoft涉及AI的更多信息,請務必趕上我們以前的報導Microsoft展示了其365 Copilot AI驅動的辦公工具在其AI演示中以及如何Bing將AI聊天限制為五個答复防止長時間的怪異對話。
摩根(Morgan)是緬因州冷凍荒原的作家,喜歡金屬音樂,KPOP,恐怖和獨立遊戲。他們也是俄羅斯方塊的狂熱者,在俄羅斯方塊99和所有遊戲等遊戲中都具有激烈的競爭力。但主要是俄羅斯方塊。您可以在Twitter上關注Morgan@Author_mshaver。