我们回答了关于人工智能的所有问题 - 《华尔街日报》
Bart Ziegler
人工智能似乎无处不在。专家们说,它将对几乎所有事情产生深远影响。
但许多人仍然觉得这项技术令人困惑。
我们询问了《华尔街日报》的读者们对人工智能有什么疑问。他们有很多问题。许多人对其影响、风险以及如何最好地利用它产生了困惑。
以下是对其中一些问题的回答。
我真的不明白人工智能及其发展方向。请解释一下它是什么。
人工智能是一个广义的术语,涵盖了多种技术,因此定义各不相同。但从字面上理解会有所帮助:它是模拟人类智能分析能力的数字技术,主要通过发现所接收或遇到的信息中的模式来实现。
这意味着它可以快速解释大量信息,解决复杂问题,或控制复杂的技术流程。
早期的一个机器展示出类似思考的例子是1997年IBM计算机深蓝击败世界冠军国际象棋选手加里·卡斯帕罗夫,这是人工智能的前身。如今,人工智能已经渗透到我们的生活中。它为亚马逊上的产品提供个性化推荐,为Netflix上的视频提供推荐。它帮助驱动苹果的Siri和亚马逊的Alexa。科学家使用人工智能设计药物,零售商提供客户服务,制造商优化生产。
关于那些“聊天机器人”人工智能系统呢?
这些系统允许我们就几乎任何主题提问,并以对话方式立即得到回答。根据你使用的聊天机器人不同,它们可以撰写定制的论文和报告,根据你输入的食材制作食谱,编写软件代码,根据你的描述创建图像,解决数学方程——甚至创作诗歌、戏剧和歌词。
与大多数早期的人工智能不同,它们可以通过互联网向任何人提供,并提供免费版本。这将人工智能推广到了更广泛的受众中。其中包括 OpenAI 的 ChatGPT,谷歌的 Bard,微软的 Copilot(原名必应聊天)和 Anthropic 的 Claude AI。
这些新的人工智能如何能回答几乎任何类型的问题?
这些强大的计算机系统被称为生成式人工智能或大型语言模型,它们被输入了大量的信息——数百亿字——来“训练”它们。想象一下,如果你能阅读几乎互联网上的所有内容,并且有能力记住它并复述出来。这就是这些人工智能系统所做的事情,它们的材料来自数百万个网站、数字化的书籍和杂志、科学论文、报纸、社交媒体帖子、政府报告和其他来源。
这些系统将文本分解成单词或短语,并为每个单词或短语分配一个数字。利用形成所谓的神经网络的复杂计算机芯片——这些神经网络模仿人脑中的神经元——它们通过数学公式找出这些文本片段中的模式,并学会猜测一系列单词中的下一个单词。然后,利用自然语言处理技术,它们可以理解我们的问题并回答。
对普通公民来说,这意味着什么?我不知道是感到不安、恐惧还是欢迎。
也许三者都有。从好的方面来看,AI聊天机器人提供的信息比网络搜索得到的一大堆链接更简洁、更有针对性和更有用,它们像人类一样进行对话的能力令人难以置信。
但也存在很大的缺点。首先,AI不像人类那样思考**。****“这个东西不是智能。它不理解自己在说什么,”东北大学体验人工智能研究所执行主任Usama Fayyad本月在《华尔街日报》的“未来或一切”播客中说。**
由于AI的运作方式类似于自动完成设备,它在回答中可能会猜错下一个单词应该是什么,Fayyad说。而且它会利用那个错误的单词“作为输入的一部分,并在其之上构建”。
此外,如果训练材料包括阴谋论、偏见或虚假信息——这在网上很普遍——AI可能会复述这些信息。
此外,培训文本通常是几个月甚至一年多前的。这可能导致过时的答案。一些聊天机器人,如微软的Copilot和谷歌的Bard,可以利用互联网搜索来添加最新信息到基于训练的信息中。不过,Bard在去年十二月告诉我,迈克·彭斯正在考虑参加白宫竞选,而他其实在十月就退出了。
它们也可能自相矛盾:在购买自行车时,我问另一个聊天机器人比较公路车和混合车。它告诉我公路车有所谓的下垂式把手,但几句话后它错误地说它们有平把手。
“幻觉”呢,当人工智能编造某事但将其呈现为事实?
幻觉可能出现在人工智能系统在其训练材料中找到的与噪音相关、错误或无意义的模式。根据IBM的说法,“人工智能幻觉类似于人类有时在云中看到图案或在月亮上看到脸的情况。”
幻觉可能会让聊天机器人用户困惑。今年六月,曼哈顿联邦法官罚款了两名律师,因为他们使用ChatGPT搜索以加强其人身伤害诉讼的先前案例。他们引用的案例后来被证明是假的。
即使人工智能的推广者也可能受到伤害。今年二月,谷歌为Bard做了一次在线推广,询问该人工智能詹姆斯·韦伯太空望远镜做出了什么发现。Bard回答说它拍摄了“第一张”太阳系外行星的照片。事实上,欧洲的一台望远镜早在多年前就已经做到了。“这是一个需要严格测试的很好的例子,”谷歌的一位高管当时说。
人工智能提供商在做什么来最小化幻觉?
他们表示,除其他事项外,他们正在更加谨慎地选择训练材料中的信息。他们还在使用能够更好地理解人工智能对文本处理的方法,并且正在与人类用户进行更广泛的测试,以寻找产生幻觉的倾向。
一旦人工智能系统发布,提供商会向公众征求关于错误答案和类似问题的反馈。
聊天机器人是否会警告人们可能提供错误信息的可能性?
许多聊天机器人在其主页上告诉用户。谷歌表示“Bard可能显示不准确的信息,包括关于人物的信息,因此请对其回答进行双重检查。” OpenAI表示“ChatGPT可能会犯错。请考虑检查重要信息”,而微软表示“Copilot由人工智能驱动,因此可能会出现意外和错误。”
人们是否会使用人工智能来制作虚假新闻报道、照片或视频?这能被阻止吗?
这是人工智能的一个令人不安的能力。政客可以被插入到他们没有参加的活动照片中。电视新闻主持人的视频可以被篡改,让他们说出他们没有说过的话。一些伪造品看起来如此真实,甚至连人工智能也分辨不出来。
今年七月,白宫表示主要人工智能提供商同意开发方法,为其系统创建的图像和其他内容添加水印,以表明它是由人工智能生成的。还开发了软件来检测伪造品。从另一个角度解决问题,Adobe已经设计了一种方法来证明图像是真实的,没有被篡改。
与此同时,人工智能提供商正试图阻止虚假媒体和政治虚假信息的制造,通过阻止请求中的特定词语或短语。例如,如果你要求Copilot创建一张著名政治人物被铐的图片,它会拒绝。微软Copilot营销总经理Divya Kumar表示:“为了遏制滥用,我们有许多预防措施和审查政策。”
然而,这些保障远非百分之百可靠。所有这些意味着,如果你看到看起来不太对劲的图片和其他媒体,你需要持怀疑态度。
如果我们能够看到人工智能在回答中使用的来源,就像报告中的脚注或引用一样,那不是更好吗?
那将会是一个很大的帮助,但存在技术障碍。由于人工智能聊天机器人的训练方式是识别其所接收的材料中的模式,而不是作为事实的简单仓库,并且它们使用数学公式而不是文本搜索来生成回答,因此在它们的训练中提供引文是极其困难的。
我问Bard一个关于大型语言模型的问题。它回答了有用的信息,所以我要求看它的来源。Bard回答说“我很抱歉没有在我之前关于LLMs的回答中提供引文。以下是我用来编译信息的一些资源”,然后列出了一长串链接。但这些并不是Bard获取信息的地方。一位谷歌发言人告诉我,“产品团队最好的解释是,你询问中的引文是Bard试图提供帮助的一种方式”,但它们并不“反映训练Bard所使用的具体信息。”
谷歌、微软、OpenAI等公司的高管以及其他专家在2023年公开警告称,人工智能的危险。他们担心什么?
这些专家担心,随着各种人工智能(不仅仅是聊天机器人)变得更加强大,它可能会帮助恐怖分子发动毁灭性的网络攻击,或者制造无法阻挡的生物制剂引发大流行。他们甚至担心人工智能可能会失控,控制重要系统,如军事设施,对人类构成存在威胁。这在一定程度上基于人们担心可能不再知道这些系统究竟是如何运作或者在做什么。
其他人说这些都是牵强附会的 科幻情节,可以追溯到20世纪50年代计算机诞生之初,人类始终将对人工智能拥有最终控制权。
2023年3月,许多人工智能行业人士签署了一份呼吁暂停推进更强大版本的声明。这个暂停发生了吗?
没有。更先进的人工智能系统的开发继续进行,甚至可能加速。
“人工智能公司正在鲁莽地加紧建造更加强大的系统,却没有健全的解决方案来确保它们的安全,”未来生命研究所的执行董事安东尼·阿吉雷在9月表示。这个非营利组织发起了公开信,得到了超过3万名研究人员、行业领袖和其他专家的签署。
有人说政府需要监管人工智能,使其尽可能安全。那会是什么样子?
五月份,微软和OpenAI的总裁支持美国成立一个机构来许可主要人工智能系统。与此同时,国会讨论了设立保障措施的可能立法,而拜登政府在十月份发布了一项行政命令,要求最强大的人工智能系统的开发者与政府分享他们的安全测试结果和其他信息,等等。
十一月份,二十多个国家的代表在英国的布莱切利公园聚集,那里的专家们破译了纳粹德国使用的密码,并承诺在人工智能安全方面合作。“这些人工智能模型的最重要能力存在造成严重甚至灾难性伤害的潜力,无论是故意的还是无意的,”他们在一份联合声明中说。
十二月份,欧盟达成了协议关于人工智能监管。其中的规定之一是要求人工智能系统公布用于训练大型语言模型的材料详情。
我听说了很多关于人工智能的世界末日的猜测,但它有哪些积极的方面?
人工智能正在提升或改变医学、科学、工业、教育和日常生活等诸多领域。
人工智能可以分析X光和核磁共振图像,以便早期发现疾病。在天文学领域,它可以通过分析望远镜数据帮助发现新行星。人工智能为汽车提供了驾驶辅助技术,如车道保持和自动制动。它帮助快递公司优化路线,帮助建筑师设计建筑。
华尔街使用它来帮助创建资产管理计划,而监管该行业的当局则使用它来检测欺诈行为。旅行网站利用它进行个性化的航班和酒店推荐。在教育领域,它可以提供虚拟辅导和个性化学习。
简而言之,越来越难找到没有受到人工智能影响的生活领域。
Bart Ziegler是前《华尔街日报》编辑。您可以通过[email protected]联系他。