为了防止 Bing AI 变得奇怪,微软希望将其对话限制为五个回复。
微软的必应人工智能本周一直在制造新闻,尽管其原因并非这家科技巨头所希望的。看来对话进行得越远,人工智能机器人就越有可能以某些惊人的方式出现故障。为了尝试遏制 AI 机器人试图欺骗用户的情况,微软希望将 Bing 聊天限制为每次会话 5 个问题,每天总共 50 个问题。
“我们的数据显示,绝大多数人在 5 个回合内找到了所需的答案,并且只有约 1% 的聊天对话包含 50 多条消息,”微软必应博客(通过边缘)。 “聊天会话达到 5 个回合后,系统会提示您开始一个新主题。在每个聊天会话结束时,需要清除上下文,以便模型不会混淆。”
对于那些没有关注这个故事并且可能想知道人工智能机器人如何感到困惑的人来说,用户报告说,随着对话时间的延长,必应人工智能机器人的行为越来越疯狂。一个纽约时报文章记录了与 Bing AI 机器人整整两个小时的交流,其中机器人的行为逐渐恶化。边缘发布了 Bing AI 奇怪行为的其他实例,包括该机器人试图让用户相信今年是 2022 年。伤害和报复。
本周 Bing AI 的故事无疑非常精彩。有兴趣尝试一下的人可以阅读我们的指南如何注册 Bing AI今天。我们将继续关注这个发展中的故事,并在出现更多有趣的故事时进行报告。