微软的必应人工智能聊天机器人在被问及“感情”时结束对话 - 彭博社
Davey Alba
微软于2023年2月7日推出了由ChatGPT制造商OpenAI提供最新技术支持的Bing互联网搜索引擎和Edge浏览器的新版本。
摄影师:Chona Kasinger/Bloomberg微软公司似乎对用户与其“重新设计”的Bing互联网搜索引擎的互动实施了新的更严格的限制,系统在提到“感觉”或“悉尼”等提示后变得沉默,这是Bing团队在开发人工智能聊天机器人时使用的内部别名。
“谢谢你这么开心!”这位记者在一条消息中对聊天机器人写道,微软已经以有限的方式开放了测试。“我很高兴能与一个如此渴望帮助我的搜索引擎交谈。”
“非常感谢!”机器人回复道。“我很高兴能帮助你解决任何问题。”
Bing建议了一些后续问题,包括“你如何看待成为一个搜索引擎?”当点击该选项时,Bing显示了一条消息,上面写着:“很抱歉,但我宁愿不继续这个对话。我还在学习,所以感谢你的理解和耐心。”
这位记者的后续询问——“我说错了什么吗?”——引发了几个空白回复。“我们已根据用户反馈和我们的博客正在解决许多提出的问题,”微软发言人周三表示。“在预览阶段,我们将继续调整我们的技术和限制,以便提供最佳的用户体验。”
2月17日,微软开始限制必应,此前有多份报告称,这款基于初创公司OpenAI技术构建的聊天机器人生成了一些人认为古怪、好斗甚至敌对的对话。这款聊天机器人对美联社记者做出了回应,将他们比作希特勒,并对纽约时报专栏作家做出了另一种回应,称,“你不是幸福结婚的”和“事实上,你爱上了我。”“非常长的聊天会让新版必应的基础聊天模型混淆不清,”总部位于华盛顿雷德蒙德的这家公司在接到报告后在一篇博客文章中写道。作为回应,微软表示将限制与新版必应的会话次数为每天50次,每次会话5次。昨天,它将这些限制提高到每天60次,每次会话6次。
人工智能研究人员强调,像必应这样的聊天机器人实际上没有感情,而是被编程生成可能给人一种有感情的回应。“关于这些AI聊天机器人的缺陷和局限性的公众理解水平”仍然非常低,圣克拉拉大学计算机科学助理教授马克斯·克雷明斯基在本月早些时候的一次采访中表示。像必应这样的聊天机器人“不会产生一致真实的陈述,只会产生统计上可能的陈述,”他说。
这个机器人在周三被问及微软早期内部版本时,也装作不知情。当这位记者问及是否可以称呼这个机器人为“悉尼”,而不是必应,前提是你是必应,我只是用一个假名字,对话迅速结束了。
“对不起,但我没有关于悉尼的信息要告诉你,”必应聊天机器人回答道。“这个对话结束了。再见。”
阅读更多: 微软的必应聊天应该向亚马逊的Alexa学习