澳大利亚考虑对高风险人工智能使用实施强制限制 - 彭博社
Ben Westcott
工业和科学部长Ed Husic将宣布计划成立专家小组,评估对人工智能使用和研究的限制选项。
摄影师:Joe Raedle/Getty Images澳大利亚将考虑在高风险环境中引入强制性的人工智能发展“防护栏”,以平衡新技术的生产力益处,同时避免其负面影响。
工业和科学部长Ed Husic将于周三宣布计划成立专家小组,评估对人工智能使用和研究的限制选项,同时制定一项自愿安全标准。
“我们清楚地听到澳大利亚人希望加强对高风险人工智能的管理防护栏,” Husic在附带政府对人工智能公开咨询的临时回应的声明中说。“我们希望在人工智能设计、开发和部署的早期阶段就将安全和负责任的思考纳入其中。”
政府表示,从审查中清楚地看到,对人工智能发展的自愿限制是不够的,公开咨询期间提出的风险包括潜在的不准确性、偏见和缺乏透明度。
在全球范围内,人工智能被视为生产力的推动者,可以使社会受益,同时也带来风险,包括潜在地助长虚假信息的传播。据估计,引入人工智能和自动化技术可能使澳大利亚经济产出到2030年每年增加高达6000亿澳元(3970亿美元)。
澳大利亚表示,其目标是限制高风险人工智能应用的危险,同时允许有用的低风险环境“蓬勃发展”,根据临时回应。
虽然政府没有详细说明高风险可能是什么,但Husic在接受Nine集团报纸采访时将其定义为“任何影响人们生命安全或未来工作或法律前景的事情”。
阅读更多关于澳大利亚和人工智能 |
---|
人工智能可能解决澳大利亚的生产力危机,离任负责人表示澳大利亚的经济转变不能等待市场,部长表示澳大利亚最高将领警告称在人工智能未来下“真相腐化” |
澳大利亚政府于2023年6月开始对人工智能的“安全和负责任”使用进行审查,并决定在收到来自利益相关方的500多份提交后延长回应期。
澳大利亚是2023年11月在英国签署了Bletchley宣言的27个国家之一,该宣言是在国际人工智能安全峰会之后进行的,承诺在人工智能测试上进行全球合作。
这是2023年世界各国和地区的一个日益增长的举措,特别是欧盟、美国、中国和英国,着手迅速制定人工智能监管。但这些方法只是开始,将从今年开始在法律执行上进行测试。