微软为错误的人工智能答案辩护,声称它们是“有用的错误”
微软建议人工智能工具的用户意识到人工智能给出错误答案的可能性,并围绕它们进行编辑。
在一次概述 Copilot 功能的在线演示中,Copilot 是微软针对 Powerpoint、Teams 和 Outlook 等 Office 应用程序推出的新型人工智能聊天技术,该公司解决了人工智能之前提供错误答案的问题。例如,早在二月份,当微软首次推出使用 OpenAI 创建的 Bing 聊天工具的演示时,就发现它给出了错误答案。
据 CNBC 报道,研究人员开始将人工智能中出现的这种现象称为“幻觉”。这无疑是一种有趣的描述方式。然而,微软最近更进一步,将这些不正确的答案描述为“有用的错误”。微软还指出,只要人们意识到 Copilot 提供不准确响应的可能性,他们就可以围绕它们进行编辑,并仍然使用这些工具快速发送电子邮件或完成演示幻灯片。
“例如,如果一个人想要创建一封电子邮件祝家人生日快乐,即使它提供了错误的出生日期,Copilot 仍然可以提供帮助。在微软看来,该工具生成文本这一事实本身就节省了人们一些时间,因此很有用。人们只需要格外小心并确保文本不包含任何错误,”CNBC 报道解释道。
CNBC 还援引微软首席科学家 Jaime Teevan 此前的保证,当 Copilot 出错、存在偏见或被滥用时,微软会“采取缓解措施”。 “我们会犯错误,但当我们犯错误时,我们会迅速解决它们,”蒂万说。
看到微软如何围绕人工智能开展工作将会很有趣,因为人工智能有可能提供不准确的信息并犯错误。很高兴听到 Microsoft 已经意识到这个问题,并且正在努力解决它们。
有关微软进军人工智能领域的更多信息,请务必关注我们之前的报道,包括微软展示其 365 Copilot AI 支持的 Office 工具在其人工智能演示中,以及如何Bing 将人工智能聊天限制为五个回复以防止长时间、奇怪的对话。
摩根是一位来自缅因州冰冻荒原的作家,喜欢金属音乐、韩流、恐怖和独立游戏。他们也是俄罗斯方块狂热者,在俄罗斯方块 99 等游戏以及所有一般游戏中都具有激烈的竞争性。但主要是俄罗斯方块。您可以在 Twitter 上关注摩根@Author_MShaver。