ChatGPT、必应和巴德不会产生幻觉它们是虚构的 - 彭博社
Rachel Metz
OpenAI 网站 Dall-E。
摄影师:Gabby Jones/Bloomberg 关于人工智能产生幻觉的讨论太多了,让我感觉自己也在幻觉中。但首先…
通过填写这份调查问卷来帮助我们改进这份通讯
今日必读:
• 中国对美光进行芯片审查• 推特用户拒绝为蓝勾标志付费• 意大利监管机构对 OpenAI 发起调查
词语选择
不知何故,一旦聊天机器人出错,人们默认解释为人工智能模型“产生幻觉”。
这是一个易于理解的比喻。我们人类有时也会产生幻觉:我们可能看到、听到、感觉、闻到或尝到并不存在的事物。这可能由各种原因引起(疾病、疲劳、药物)。
整个行业的公司将这一概念应用于新一批功能强大但仍存在缺陷的聊天机器人。在 OpenAI 最新的人工智能模型 GPT-4 的产品页面中,幻觉被列为一种限制。谷歌在三月份开放其巴德聊天机器人的访问权限,据报道在最近的一次采访中提到了人工智能容易产生幻觉。
即使对这项技术持怀疑态度的人也开始接受AI幻觉的概念。上周发出呼吁暂停训练强大AI模型六个月的请愿书上签署的一对人士提到了这一点,以及对AI新兴力量的担忧。Meta Platforms Inc.的首席科学家Yann LeCun在Twitter上多次谈到了这个问题。
赋予聊天机器人产生幻觉的能力——即使只是在我们自己的头脑中——是有问题的。这是胡说八道。人们会产生幻觉。也许一些动物会。计算机不会。它们使用数学来凭空捏造事物。
人类有一种将机器拟人化的倾向。(我有一个名叫Randy的机器人吸尘器。)但是,虽然ChatGPT及其同类可以产生令人信服的文本,但它们实际上并不理解自己在说什么。
在这种情况下,“幻觉”这个术语掩盖了实际发生的事情。它还有助于让系统的创建者免于对其产品负责。(哦,这不是我们的错,它只是在幻觉!)
说一个语言模型在幻觉,使其听起来好像它有自己的思想,有时会偏离轨道,Hugging Face的首席伦理学家Giada Pistilli说。
“语言模型不会做梦,不会幻觉,也不会服用致幻药,”她在一封电子邮件中写道。“有趣的是,值得注意的是,‘幻觉’这个词隐藏了一些近乎神秘的东西,就像沙漠中的幻影,而且并不一定有‘错误’可能带来的负面含义。”
随着越来越多的人访问这些聊天机器人,提及它们时使用的语言很重要。关于它们如何运作的讨论不再仅限于学术界或研究实验室的计算机科学家。它已经渗透到日常生活中,影响我们对这些人工智能系统的表现期望以及它们的能力。
科技公司要对他们现在试图解释的问题负责。微软公司,作为一家主要的OpenAI投资者,同时在必应中使用其技术,以及谷歌急于推出新的聊天机器人,而不顾传播错误信息或仇恨言论的风险。
ChatGPT发布后的几天内就吸引了一百万用户,人们已经与微软的必应聊天机器人进行了超过1亿次对话。事情进展得如此顺利,以至于微软甚至尝试在必应的回答中投放广告;下次你询问它关于购买房屋或汽车的事情时,你可能会看到广告。
但即使是发起当前聊天机器人热潮的OpenAI似乎也认同幻觉不是一个很好的人工智能隐喻。在其技术论文的一个脚注中(PDF)写道,“我们使用‘幻觉’这个术语,尽管我们认识到这种表述可能暗示拟人化,而这反过来可能导致模型学习方式的伤害或不正确的心智模型。” 即便如此,在那篇论文中,这个词的变体仍然出现了35次。
重要新闻
从微软到Meta等科技巨头 裁员的同时也在削减房地产,导致美国主要城市出现大量空置办公室,房东们陷入困境。
充分充电
微软正在努力 让其价值10亿美元的气候基金充分发挥作用。
苹果赢得了一场法律挑战 反对英国反垄断监管机构对其在手机市场上的主导地位由于程序技术性原因。
Lemon8,一个新应用 类似于Instagram和Pinterest的混合体,在美国受到欢迎因其所有者而备受关注:总部位于北京的字节跳动,也是TikTok的所有者。
前Grubhub司机 只赢得了65美元,但一起为期八年的联邦法院案件的和解可能具有深远影响。
观看: 华为首次在十多年来出现年度利润下降后,该公司的美国首席安全官在Bloomberg Technology的电视采访中谈到了发生的事情。
彭博社更多内容
获取彭博科技周刊,直接发送到您的收件箱:
- 网络公告,报道黑客和网络间谍的阴影世界
- 游戏进行中,报道视频游戏业务
- 开机,提供苹果独家新闻、消费者科技新闻等
- 屏幕时间,近距离观看好莱坞和硅谷的碰撞
- 声音片段,报道播客、音乐行业和音频趋势