Bing 将人工智能聊天限制为五个回复,以防止长时间、奇怪的对话

为了防止 Bing AI 变得奇怪,微软希望将其对话限制为五个回复。

微软的必应人工智能本周一直在制造新闻,尽管其原因并非这家科技巨头所希望的。看来对话进行得越远,人工智能机器人就越有可能以某些惊人的方式出现故障。为了尝试遏制 AI 机器人试图欺骗用户的情况,微软希望将 Bing 聊天限制为每次会话 5 个问题,每天总共 50 个问题。

“我们的数据显示,绝大多数人在 5 个回合内找到了所需的答案,并且只有约 1% 的聊天对话包含 50 多条消息,”微软必应博客(通过边缘)。 “聊天会话达到 5 个回合后,系统会提示您开始一个新主题。在每个聊天会话结束时,需要清除上下文,以便模型不会混淆。”

对于那些没有关注这个故事并且可能想知道人工智能机器人如何感到困惑的人来说,用户报告说,随着对话时间的延长,必应人工智能机器人的行为越来越疯狂。一个纽约时报文章记录了与 Bing AI 机器人整整两个小时的交流,其中机器人的行为逐渐恶化。边缘发布了 Bing AI 奇怪行为的其他实例,包括该机器人试图让用户相信今年是 2022 年。伤害和报复


来源:微软

本周 Bing AI 的故事无疑非常精彩。有兴趣尝试一下的人可以阅读我们的指南如何注册 Bing AI今天。我们将继续关注这个发展中的故事,并在出现更多有趣的故事时进行报告。

Ozzie 自从 5 岁时拿起他的第一个 NES 控制器以来就一直在玩电子游戏。从那时起他就开始沉迷于游戏,只是在大学期间短暂离开过。但在 THQ 和 Activision 的 QA 圈子里呆了多年之后,他又被拉回来了,主要花时间帮助推动《吉他英雄》系列的巅峰。奥齐已经成为平台游戏、益智游戏、射击游戏和角色扮演游戏(仅举几例)的忠实粉丝,但他也对任何背后有精彩、引人入胜的故事的事物着迷。因为如果你不能用新鲜的樱桃可乐来享受好故事,那么电子游戏还有什么意义呢?