【中国智能制造网 名家论谈】近日,在中科院神经神经科学所所长蒲慕明担任主席的一个论坛上,中科院副院长谭铁牛、中科院自动化所曾毅等几位专家讨论了中国人工智能的新研究和进展,未来会走向何方,以及面临的主要的挑战。
谭铁牛:AI建设不可盲目跟风 应注重自主创新
近日,中科院在其份英文科技类综述期刊 National Science Review(国家科学评论)上发布了一篇名《中国人工智能研究与发展》的文章。记录了蒲慕明、谭铁牛、陈云霁、曾毅、查红彬这5位研究者对当前中国人工智能发展的分析,讨论的主题包括“脑启发”式人工智能研究、人工智能的本质——可塑性、中国人工智能研究面临的主要挑战和与国外研究的差距等问题。
2016年,在人工智能的发展上,2016年我们看到了几个里程碑式的发展。今年3月,谷歌 DeepMind 的计算机程序 AlphaGo 战胜了围棋世界李世石。10月,这家公司在Nature上展示了其新的人工智能技术,让机器可以解决逻辑和推理的问题,比如在伦敦地铁里使用从来没见过的地图进行导航。
近年来的这些技术进展提供的巨大推动力,被用于全世界范围内发展界前沿的学习机器。2015年,中国科学院(CAS)成立了脑科学与智能技术创新中心。2016年年初,中国推出了“中国大脑计划”,这是一个为期15年的项目,关注脑图谱、神经学疾病和脑启发人工智能。
中科院神经神经科学所所长蒲慕明担任主席的一个论坛上,中科院副院长谭铁牛、北京大学机器感知与智能教育部重点实验室主任查红彬、中科院自动化所曾毅、中科院计算所陈云霁几位专家讨论了中国人工智能的新研究和进展,未来会走向何方,以及面临的主要的挑战。
人类大脑与学习机器
蒲慕明:对于人工智能来说,今年是值得兴奋的一年。我有一个基本的问题:在我们离真正地完全理解人类大脑还有很长的路要走的情况下,我们现在该怎么做?
曾毅:我认为用“大脑启发的”来描述人工智能研究是非常的,这也是未来我们开发模型的基本方法。但是,人类的大脑是不断进化的产物,目前还没有完整地被优化。这是我为什么强调我们并不需要真的去复制大脑里的所有东西。我们需要借鉴大脑的运行机制,启发人工智能模型来提高性能和扩展认知能力,这看起来是非常独特和有用的。当然,在理解大脑这件事上,我们还处在非常早期的阶段。要真正地理解大脑的工作原理,可能还要花上几百年。但是我们现在也确实了解了一些:比如,多层次可塑性规则( plasticity principle at multiple scales)。并且,这些的功能目前还并没有被融入到当下的人工智能模型和系统中。
陈云霁:我有一些不同的观点 ,因为我的研究主要聚焦于硬件。但是我同意:人工智能的发展需要长期的努力,在这个过程中,我们要不断地把已有知识融入其中,而不是等待直到某天我们能真正地理解人脑(才展开行动)。人工智能应该是应用驱动的、致力于解决具体实际问题的。
蒲慕明:谈到脑启发的人工智能,其实,在例如机器感知这些领域,人们早在20世纪40年代就已经开始研究了。但可塑性规则是一个相对较新的发现。
谭铁牛:确实。人工智能并不是一个新的话题。当下人工智能非常热,一部分是由于神经科学上的进步。虽然脑启发的人工智能研究方法很有潜力,但是可能这并不是发展会学习的机器的方式。
蒲慕明:媒体在引导公众的想象上扮演了很重要的角色,比如在报道三月份AlphaGo的胜利时便是。但是,这种情况也说明了在这一领域有一种些事需要澄清:那就是目前的机器并没有那么有效,并且需要巨大的计算能力支撑(很少有人能承担AlphaGo所需要的运算能力)。当能源变得越来越短缺时,这个问题就会变得尤为突出。所以很多研究者都转向了人类的大脑(寻求启发),因为人类的大脑是非常的。
谭铁牛:公众对类似AlphaGo这样的机器的反应存在一些错位。要知道,让机器在围棋上战胜人类并没有那么难。
查红彬:我同意。人类进化的目的并不是下围棋或者完成超级复杂的算术难题。这些并不是人类智能的基础要素。在人工智能的研究中,这是一个关键要素:人工智能的研究长期以来的着眼点都在于发展在具有清晰规则定义的情况下能够有较好表现的机器。很少有人会关注具有较少规则的行为能力,比如在家里做饭或者在田间劳动。
曾毅:当下的讨论依然是在阿兰·图灵1950年发表的学术论文《Computational Machinery and Intelligence 》的研究范围内进行的。他在论文中对对人工智能的定义包含三个方面:,图灵测试。简而言之,图灵测试是一种对计算机智能的测试方法,如果人类很难分辨出所提出问题的答案是机器还是人回答的,就证明这一机器拥有智能。第二是棋类游戏中的人机对战。第三是机器能像儿童一样进行学习——这一点非常关键,也是人工智能中具有挑战性的一个方面。
蒲慕明:通常大家都认为,要训练人工神经网络海量的数据是必不可少的,但人类的大脑在做决定时,并不需要那么多的信息。我认为,这种认识是错误的。事实上,人类的大脑也是从大数据的训练中获得结果的,这种对“大数据”的训练,在人脑的网络结构中是不断演变的。
新生的婴儿拥有神经细胞,但是还没有发育出完整的神经网络。通过年复一年的学习,神经网络会被修正和调整,同时结构也会发生明显的改变。这是为什么人类神经网络如此有效的原因。我认为,人工智能发展的关键在于开发出架构可以通过学习不断改变的人工神经网络。
可塑性:人工智能的本质
谭铁牛:很多人都强调绘制大脑地图的重要性,以更好地理解大脑网络中各个神经细胞是如何互联的。但是,理解在不断的发展的情况下的神经网络的组成机制也许更为重要。像人脑一样的架构也许并不能带来像人脑一样的功能,因为架构是静态的,但是学习是一个动态的过程。
查红彬:我的研究聚焦于模式识别和计算机视觉。我认为,人工智能的一个关键要素是它的灵活性。毕竟,它需要在现实世界的场景下起作用,所以,适应动态的环境的能力确实是非常重要的。这种自学习的能力与类脑计算关系密切,其中包括两个重要的方面:,系统必须要是可塑的,正如人类的大脑一样。第二,机器要能跟其所在的社会和自然环境交互。当下,关于类脑计算的研究更多是关于学习大脑的结构,然后模仿一小部分功能。我认为我们需要更多地关注可塑性。
蒲慕明:我同意上面的观点。关键在于连接的可塑性,这与学习过程中的反馈和纠错有关,终会带来结构的改变。不过,现在人们的关注点都在计算能力和速度,这些并不是人类智能的关键。
查红彬:如果机器只是为特定环境、固定规则设计,那么它们并不需要改变。要想拥有真正能对其所处的环境作出回应的、会学习的机器,你需要在整个网络中融入反馈机制。
浦慕明:环境反馈与学习相关。那么从监督式学习到无监督学习,面临的大挑战是什么?
陈云霁:在AlphaGo之前,DeepMind 在Nature 上发表过一篇论文,介绍了一个算法程序如何使用大型数据库来学习玩经典的电子游戏。通过“看”视频,了解某一个动作是否会带来得分,程序后“学会”了数10个游戏的玩法。这是实现强化学习的一种方法,但是,这种方法可能会局限在电子游戏和棋类游戏,因为这些任务都有简单的规则和直接的目标。在包含复杂环境输入的情景下,这些方法可能并不适用。我观察到的另一个现象是,许多人现在在研究感知人工智能(Sensory AI),但是,在认知这一块的研究要落后很多。