陈根:算法黑箱透明化,如何理解人工智能?_风闻
陈根-知名科技作家为你解读科技与生活的方方面面。2021-01-03 08:16
文/陈根
在人工智能深度学习输入的数据和其输出的答案之间,存在着人们无法洞悉的“隐层”,它被称为“黑箱”。这里的“黑箱”并不只意味着不能观察,还意味着即使计算机试图向我们解释,人们也无法理解。
事实上,早在1962年,美国的埃鲁尔在其《技术社会》一书中就指出,人们传统上认为的技术由人所发明就必然能够为人所控制的观点是肤浅的、不切实际的。技术的发展通常会脱离人类的控制,即使是技术人员和科学家,也不能够控制其所发明的技术。
进入人工智能时代,算法的飞速发展和自我进化已初步验证了埃鲁尔的预言,深度学习更是凸显了“算法黑箱”现象带来的某种技术屏障。以至于无论是程序错误,还是算法歧视,在人工智能的深度学习中,都变得难以识别。
与此同时,在生命科学方面,理解细胞差异、为细胞分类,对生命科学具有重要意义,一系列基于基因转录数据和深度学习的分类方法正在兴起,然而,由于算法“黑箱”,以至于现有的****方法可解释性往往不足。
近日,由北京师范大学、中科研基因所研究人员合作在Nature Machine Intelligence 期刊发表论文,其中,研究人员****利用改进后的胶囊网络深度架构,应用于转录组分析和细胞分类,取得良好效果并具有较强的可解释性。
在研究人员提出的胶囊网络中,胶囊代表多个神经元组成的向量,作为基本的运算单位。每个向量(胶囊)代表特定对象的一种属性。所以,胶囊网络具有模块化的架构,适用于同样具有模块化特征的生物学数据。
最初版本的胶囊网络模型使用卷积神经网络作为特征提取器,用于图像分类任务。在此次研究中,研究人员则将其改造成为“单细胞胶囊网络”(scCapsNet ),以多个并联的神经网络替换原有卷积神经网络,作为特征提取器,用于单细胞表达谱的分类。
**单细胞胶囊网络从多个层面弥补了传统机器学习透明度低及缺乏可解释性的问题。**这对于决策黑盒子透明化具有重要意义。