人工智能能否超越人类?(四)
AlphaGo能不能创新?它不走寻常路,已经走出一些看起来很妙的走法,有很好的外推能力。基于机器学习算法的目标是外推,由有限的点推出没有见过的点。“不走寻常路”恰恰是模式分类的一个结果。每次下棋的走法,可能跟经典下法是不同,每次碰到的情况往往是在已知的两个点中间的未知的点。它不得不找到新的下法来填补它,不能照搬以前的方法。这种结果源于强大的计算能力,找出人类棋手未曾推演过的走法,就是大的搜索树。人搜索的空间范围很有限,它填补那些没有搜索过的。走出一步可能会令围棋手很吃惊,好像觉得它走了一些我们以前没有想过的走法,还是很奇妙的。
AlphaGo究竟算不算创新?人工智能有一个研究方向叫Case-based Reasoning(基于实例的推理)。比如有一个老问题,解决这个问题的方法是有的。当出现新问题时,没有现成的方法。我需要看一下新问题跟以前处理过的老问题哪一个比较像,如果能找到比较像的,就把以前解决老问题的方法改造一番,用来解决新问题。这种方法很好,节约了大量人力,能够积累,能够站在别人的肩膀上继续把事情做好,所以人的智慧很大程度带有Case-based Reasoning的成分。就像解数学题,老师不可能在黑板上讲过所有的数学题,必须要根据老师讲过的题目,发挥自己的主观能动性来解决新问题。
在Case-based Reasoning里,经常玩的比赛叫“炒菜”。比如我有一张湘菜的菜谱,但是我觉得湘菜太辣了,把给别人放的三个辣椒减成一个辣椒,甚至一个辣椒都不放,其他的都不变,再炒出来的菜我吃得才觉得合适。在人工智能的Case-based Reasoning的很多研究里,就是在比“炒菜”。
有很多做配方研究,比如合成橡胶高能推进剂、化学药物的药方比例,都是在配方,都是在做“炒菜”,不同的搭配在一起。这个研究很有价值,应用领域非常广,因此AlphaGo的创新就是“炒菜”。别人把点布在这个地方,我稍微挪到别的地方,计算一下,代价是多少,从本质上来讲,就是Case-based Reasoning。它的创新能力就是把三个辣椒变成一个辣椒,或者把三个辣椒变成五个辣椒。如果不认为这种“炒菜”的方法是创新,在同一个范畴下来解决问题,那它就不叫创新。它就是基于已有的例子来做事情,这个例子是人教它的。
国内一个地位很高的人在微博上发了一条新闻评论——“AlphaGo这件事情,意味着国内人工智能教育和人工智能人才严重缺乏,比美国差远了”。那国内的人工智能人才和人工智能教育是不是真的比美国落后很多?国内不做人工智能围棋研究,就表示我们落后吗?这就是用合适的、用现成的技术解决一个有显示度的问题。如果国内的科研单位,比如非常前沿的高校和重要的研究所向国家自然科学基金委员会、科技部、教育部、上海市科委申请经费研究研究计算机下围棋,肯定不会有结果。他会问,你的创新在什么地方?你有什么创新?你用这个技术做好这件事情吗?里面没有原创性的东西,国家是不会提供经费的。如果有钱的话,不是一点点。只有钱多的公司可以去做。所以谷歌用250万美金招Deep Learning人才。用计算机下棋技术上不算创新,但它的广告效应非常好。但国内的企业不一定有这样的技术敏锐度,没有人做这个。但是绝对不要说国内不做围棋,就很落后,国内做人工智能一点都不落后。
中国是一个开放的社会,跟外面有很多密切的联系,国外发生的事情以及将要发生的事情,我们都知道。国内各个领域里边,哪怕带有工科性的人工智能里研究领域,我们都是不落后的。每年在国际社会上发表很多论文等。但原创性我们稍有欠缺,但会赶上。
AlphaGo把人打败了,人类的智能就此崩塌了吗?这是危言耸听。人类智慧的强的程度远远超过我们的想象。比如我的姓危,很少见。假设我的手机丢了,通讯簿被小偷看到,那暴露谁是我的家人的风险很大。如果姓张、姓李,不用担心手机丢了会暴露手机所有者姓什么,除非手机里存爸爸、妈妈、亲爱的。这就是人类的智慧。机器没有这种智慧。所以不要相信“人类的智能从此就崩塌了”。
这张照片是我3月12号、下围棋那天中午拍的。我在家做饭,第一次碰到这种包装的鸡蛋,我想把蛋拿出来。如果我从上面拿,会把蛋抠破。所以我想的办法是把整个一盘鸡蛋往外挪,到第一排下面是空的,然后从上面捅,但我立刻意识到会掉地上,这个方案也不行。但反过来我从下面往上捅,鸡蛋就被成功拿出来了。
有很多人说下棋下得好是人类智慧的精华,是人类智慧的代表,并不是。这种寻常百姓的智慧才是人类智能或者生物智能中最精华的部分。下棋用形式化的方法可以做得非常好,但这些问题怎么用形式化做我们是不知道的。那些例子训练了很多次,这个一遍都没训练,就解决了。所以身边发生的那些很平常的问题恰恰是智慧中最精华的部分,叫“问题求解”。这些部分怎么拿机器来做,现在还不知道。
小学的时候学过这篇课文,一只乌鸦口渴了,用加石头的办法喝水,这是非常规范的问题。要解决这个问题,是非常不规范的问题,怎么对它进行形式化表征?用计算机处理一个问题,要满足三个条件。第一个条件是要能把这个问题表述成一种形式化的方法,或者一种数学办法。第二个条件是要存在算法。第三个条件是这个算法要可计算。
我们怎么表示石头这个概念或者这个知识?石头是一种火山活动的产物,有很丰富的化学成分,很硬,这是我们容易想到的。但肯定不会说石头不大容易溶解于水,可以在水里排出一部分体积。但石头这个方面的能力才是解决这个问题的关键所在。所以我们要花这么大的功夫,才能把石头的作用描述清楚,但通常情况下会忽视它的功能,容易记住一些非常science(科学)的描述。这种问题让机器求解很难,但人做得非常好,人的智慧源源不断地展现出来。
这种例子很多,比如曹冲称象、司马光砸缸,但是没有人会用机器来做这件事情。不规范的问题是目前机器很难做到的。有一天机器能解这种问题的时候,就要相信“奇点”快到了,但不用担心下多少盘棋、下赢人,直到它故意输给人的时候,你要开始担心了。
“我们要对大自然心存敬畏”。我们的智能是我们的大脑赋予的。我们的大脑是自然进化的结果,是大自然的产物。经过多少年的进化,从哺乳动物的进化开始,甚至延续到更久以前从脊椎动物时代开始进化,一直到今天,人类的情况将近600万到700万年,付出了巨大的试错代价,这么大的牺牲,才得到这样一个自然进化的产物——大脑,难道我们不应该心存敬畏吗?难道AlphaGo赢了,就超越人类大脑了。这种讲法有点太过了。不要以为人的大脑是可以轻易被超过的,至少在现在这个阶段,生物智能或人工智能还模拟得很浅。
课程简介
危辉教授在解释“AlphaGo”时表示,现在人工智能热,更多是由于商业的推动导致的,它并不能反映能人工智能领域发展的真实情况。危辉教授的乐观与悲观跟普通媒体相反,他悲观的地方是人工智能技术没这么牛,乐观的地方是机器统治不了人类。
谈到李世石为什么会输时,危辉教授提醒大家注意两件事情,一是AlphaGo是一个团队,一个团队跟一个人下棋;二是比赛采取的快棋形式,人与机器思考棋的时间相同。危辉教授还提到人的思维依赖于人的工作记忆,人的工作记忆空间是非常有限的,而计算机CPU存取IO的速度非常快。所以人跟机器比记忆空间,肯定会输。
下棋是双人博弈的游戏,有三个特点:游戏规则明确、棋局定义清晰、棋盘空间有限,意味着计算机程序或算法对下棋进行精确的描述和表征。危辉教授举了多个例子,与图像识别、机器翻译等相比,研究下棋程序难度低,是人工智能界的“软柿子”。
在技术创新方面,危辉教授认为AlphaGo技术上不算很创新,它下棋的方法就是布局之间的映射关系,但它的广告效应非常好。最后危辉教授借用“AlphaGo下赢你多少盘都不用担心,当它故意输给你的时候,你就要担心了”这句话,形象地点出了我们在生物智能或人类智能上的模拟是很浅的,人工智能对人类构不成威胁。
危辉教授说,寻常百姓的智慧才是我们人类智能或生物智能中最精华的部分,这种最精华的部分叫“问题求解”。所以,他明确表示,人工智能作为人类创造出来的一项高科技技术是不可能超越人类的。
(视频拍摄于2016年)
- 危辉教授对人工智能的乐观与悲观
- 为什么人跟机器下棋会输?
- 人工智能的春天真的到了吗?
- 双人棋盘游戏的几个例子
- 双人博弈游戏的共同特点
- 为什么说下棋程序是人工智能的“软柿子”?
- 计算机如何处理博弈游戏——以“分堆游戏”为例
- 围棋的特殊之处
- 棋盘的所有可能性布局可以庞大到什么程度?
- 歧路寻羊带来的启示
- 如何提高搜索效率?
- “以一当十”,虽败犹荣
- AlphaGo下棋有“创新”吗?
- 与机器是否创新有关的例子
- 机器如何“思考”下棋?
- AlphaGo存在的一些技术细节与进步意义
- AlphaGo是怎么学习的?
- AlphaGo能创新吗?
- 国内不做人工智能围棋研究就落后了吗?
- AlphaGo把人打败了,人类智能就此崩塌了吗?
- 为什么说我们要对大自然心存敬畏?
京公网安备 11010202008139号