美国国防部敦促人工智能公司分享更多关于他们技术的信息 - 彭博社
Katrina Manson
AI 软件依赖于大型语言模型,这些模型使用大量数据集来支持诸如聊天机器人和图像生成器之类的工具。
摄影师:AFP/Getty Images
国防部最高人工智能官员表示,该机构在完全承诺使用这项技术之前需要更多了解人工智能工具,并敦促开发者更加透明。
五角大楼首席数字和人工智能官员克雷格·马特尔希望公司分享有关其人工智能软件构建方式的见解 — 而不会放弃其知识产权 — 以便该部门可以“感到舒适和安全”地采用它。
AI 软件依赖于大型语言模型,即 LLMs,这些模型使用大量数据集来支持诸如聊天机器人和图像生成器之类的工具。这些服务通常在不显示其内部运作方式的情况下提供 — 即所谓的黑匣子。这使用户难以理解技术是如何做出决策的,或者是什么使其在工作中随着时间的推移变得更好或更糟。
“我们只是得到了模型构建的最终结果 — 这是不够的,”马特尔在一次采访中表示。五角大楼不知道模型的结构是如何的,或者使用了什么数据,他说。
阅读更多: 大型语言模型的工作原理,使聊天机器人更加清晰
马特尔还表示,公司也没有解释他们的系统可能带来的危险。
“他们说:‘这就是它。我们不告诉你我们是如何构建它的。我们不告诉你它擅长或不擅长什么。我们不告诉你它是否存在偏见,’”他说。
他将这样的模型描述为国防部的“外星科技”,他还担心只有少数几个人群有足够的资金来构建LLM。Martell没有具体指出任何公司的名字,但微软公司、Alphabet公司的谷歌和亚马逊公司以及初创公司OpenAI和Anthropic都在开发商用市场的LLM。
Martell邀请工业界和学术界在二月份来华盛顿讨论这些问题。五角大楼关于国防数据和人工智能的研讨会旨在确定LLM可能适合处理哪些工作,他说。
Martell的团队已经在运行一个评估LLM的工作组,他说他们已经在国防部内找到了200个潜在的用途。
“我们不想阻止大型语言模型的发展,”他说。“我们只是想了解使用、好处、危险以及如何加以缓解。”
国防部内有“一个很大的高涨”,Martell说。但他们也意识到,如果技术“产生幻觉”——这是指当人工智能软件捏造信息或提供错误结果时,这种情况并不少见——他们必须为此负责。
他希望二月的研讨会将有助于建立他所称的“成熟模型”,以建立与幻觉、偏见和危险相关的基准。虽然第一份报告草稿可能包含人工智能相关的错误——这是人类后来可以排除的——但这些错误在风险更高的情况下是不可接受的,比如需要用来做运营决策的信息。
在为期三天的二月活动中,一场保密会议将专注于如何测试和评估模型,并防范黑客攻击。
Martell说,他的办公室在国防部内担任咨询角色,帮助不同的团体找出衡量其系统成功或失败的正确方法。该机构正在进行800多个人工智能项目,其中一些涉及武器系统。
考虑到所涉及的风险,五角大楼将对其使用算法模型的方式设定更高的标准,他说。
“将会有很多情况涉及到生命安全,”他说。“因此,允许出现幻觉或者我们想叫它什么 —— 这是不可接受的。”