深度神经网络已经掌握了解决各种问题的方法——从识别、推理图像中的物体,到成为“围棋上帝”。随着这些任务变得越来越复杂,神经网络摸索出来的解决方法也变得越来越繁琐。
因为这个系统太复杂了,即使是设计该系统的工程师可能也无法分析出它发出某一指令的原因。当然,你也不能强求这个神经网络能够给出它下达每一个指令的原因目前为止还没有一套能够让 AI 自己解释自己行为的系统。
实际上,这就是人工智能领域著名的“黑盒子”问题,随着神经网络在现实世界中的应用越来越广泛,对这一问题的研究也开始变得无比重要。对此,《麻省理工科技评论》曾以“人工智能核心地带的黑暗秘密”为题刊发专题文章,来深入探讨神经网络的不可解释性问题。
图丨《麻省理工科技评论》关于人工智能的“黑盒子”问题的封面文章
作为人工智能研究领域的先锋,DeepMind对“黑盒子”问题也在持续关注——目前,该团队正着手开发更多的工具,用于解释人工智能系统。6 月 26 日,在最新发布的一篇论文中,DeepMind提出了一种基于认知心理学来研究深度神经网络的新方法。