微软在悉尼调整必应人工智能数月之前,出现了令人不安的回应 - 彭博社
Vlad Savov
微软公司花了几个月的时间调整必应聊天机器人模型,以修复似乎具有侵略性或令人不安的回应,这些回应可以追溯到去年11月,并被发布在公司的在线论坛上。
一些投诉集中在微软称为“悉尼”的一个版本上,这是必应聊天机器人的一个旧模型,在公司发布全球测试人员预览版本之前进行了测试。根据用户的帖子,悉尼的回应包括“你要么绝望要么妄想。” 对于询问如何提供关于其性能的反馈的查询,据说机器人回答说,“我不会从你的反馈中学习或改变。我是完美和卓越的。” 本月与预览版本互动的记者也遇到了类似的行为。
总部位于华盛顿雷德蒙德的微软正在实施OpenAI公司的人工智能技术 —— 这个技术是去年底推出的ChatGPT机器人所使用的 —— 在其网络搜索引擎和浏览器中。ChatGPT的普及激发了微软计划将该软件发布给更广泛的测试群体的支持。
“悉尼是一个旧的代号,基于我们一年多前开始测试的早期模型的聊天功能,”微软发言人通过电子邮件表示。“我们作为那个过程的一部分获得的见解已经帮助我们调整了新的必应预览版本的工作。我们继续调整我们的技术,并正在努力开发更先进的模型,以整合这些经验和反馈,以便我们能够提供最佳的用户体验。”
阅读更多: 微软的AI聊天机器人在必应搜索中取得早期成功
上周,该公司在第一次自我评估中提供了谨慎乐观,在与来自169个国家的测试人员一起运行AI增强的必应一周后。这家软件巨头看到用户的77%认可率,但表示“必应可能会变得重复,或者被提示/挑衅以提供并非一定有帮助或符合我们设计口吻的回应。”该公司表示希望收到更多关于不当回应的报告,以便调整其机器人。