第三节
第一次浪潮与低谷:多种观点下的早期探索
一、人工智能的第一次浪潮
(一)对人工智能的多种认知方式
从20世纪50年代到20世纪70年代,许多计算机科学家、数学家都将目光投向了人工智能,这一时期也通常被称为人工智能的第一次浪潮。以美国为代表的国家率先提供了大量资金,让科学家们自由地从事相关的研究工作。彼时的人工智能就像是一片从未被开采过的金矿,虽然大家还没有看见金子,也不知道哪里藏着真正的黄金,但许多人都愿意在这片土地上挖掘一番。在一番挖掘之后,科学家们逐渐形成对人工智能技术的几种基本认知方式,这几种认知方式可以说都抓住了某些“人类智能”的特征,它们就是:符号主义、行为主义、仿生主义和统计主义 。值得提醒的一点是,这样的划分方式更多是站在历史回溯的角度,当时的科学家并非头脑中先有了这些概念再进行探索的,而是在探索过程中逐渐总结、归纳出了这几种基本的认知方式。
1.符号主义观点
符号主义专家认为人工智能的关键在于数理逻辑。从最初的发展来看,这些专家更倾向于将人工智能定义为一种“比人更可靠、更精密的智能机器”,即人们需要从自己的行动中总结出一套严密的规则体系,紧接着只需要告诉人工智能机器这套像数理逻辑一样的规则体系,人工智能机器就能按照这一规则像人一样做出预测、判断或者行动。按照这一思路,符号主义专家后来又发展出启发式算法→专家系统→知识工程 ,即建立专业领域的人工智能技术。符号主义专家曾经在这段黄金时期及之后取得了诸多杰出成就,并被当成当时在工程实践中最有用的人工智能思路。1965年,斯坦福大学的著名计算机学家费根鲍姆(E.A.Feigenbaum)与化学家莱德伯格(J.Lederberg)合作,开发了第一个专家系统DENDRAL,这个系统可以帮助化学家识别未知的有机分子。直至如今,我们使用的大量人工智能模型、设备仍然是以符号主义的观点为根基。
2.行为主义观点
行为主义专家认为人工智能的关键在于控制论。控制论的基本观点是,人工智能技术可以看作是在给定的外界状态参数下,寻找最优解的问题。例如,一个机器人实现从地点A走到地点B的过程,就可以看成是在给定视野情况、路面情况、是否有障碍(外界状态参数)的条件下,每秒决定机器人选择向前、向后、转向还是调整姿势(行动)的问题。控制论的提出比人工智能早,在工程控制等领域已经得到应用。日本早稻田大学教授加藤一郎(Ichiro Kato)于1967年启动了WABOT项目,于1973年制造出了世界上第一款人形机器人产品WABOT-1。作为最初的机器人产品,在引来关注的同时,也引来了诸多批评:它只能缓慢移动,每走一步要半分钟以上,并不能满足大家对于机器人的真实期待。当然,在之后的人工智能浪潮中,随着强化学习以及相关优化技术的发展,越来越多基于控制论的应用出现在了我们的生活中,如工业界使用的机械手臂、家庭使用的扫地机器人等。
3.仿生主义观点
仿生主义专家认为人工智能关键在于神经结构。这是一种“仿生学”的思维:既然我们想要创造一个和人类一样可以思考、理解问题的机器,那我们就应该理解人类的神经结构,并根据人类的神经结构,制造类似神经元网络的神经网络模型和脑模型。按照这一思路,在20世纪60年代到20世纪70年代发展出了以感知机(Perceptron)为代表的初代神经网络结构,但是限于当时的模型复杂度、机器算力,感知机只能完成一些简单的分类问题,很难被应用到工程之中。在很长一段时间,对人类神经元的研究、对神经网络的研究都处在进展缓慢的阶段,直到20世纪80年代出现了多层神经网络及反向传播算法后,神经网络才又被重视起来。
4.统计主义观点
统计主义专家认为人工智能关键在于统计方法。无论是在符号主义还是行为主义眼里,人工智能的行动都是确定的:按照某种复杂的规则决策,或者是根据环境约束得到最优解。但在统计主义眼中,决策、判断更多是一个概率问题。例如,我们分辨出一张图片中的内容是一只小狗,实际上是我们见过了大量的小狗、小猫的图像,而在脑海中自动识别出了某种最有可能的、和过往数据最类似的图案。例如,个性化推荐就可以看成主要是依据统计方法进行的:找到与某位客户相似的人群,给他推荐类似人群喜爱的产品,它并非基于某种确定规则,而是使用统计方法对数据进行处理而得到的结果。在第一次人工智能浪潮中,当时的算力、数据都显然不足以支撑大规模的统计计算,对相关统计方法的了解还主要停留在假设检验的层面。但随着数据和算力的不断发展,统计方法的重要性越来越凸显,目前所使用的大量的机器学习、深度学习模型,其背后都能看到统计主义的思想理念。
(二)对人工智能的三点关注
从各种思潮和方法论的差异性及其发展来看,对人工智能至少有三点值得关注:
1.算力和数据决定方法的选取
在算力和数据不足的情况下,人工智能技术主要是靠“专家经验→形成规则判断→机器执行”的方法运作,这也是当时专家系统更具应用价值的原因。其根源就在于,仅使用少量数据进行模型训练,很难达到较高的准确率。当时的数据获取难度大,只能采用类似规则的方法。另外,即使当时有足够多的数据,限于当时的算力水平,大型计算机的计算能力还不如我们如今的一部手机,因此也很难深入挖掘数据信息。
在谈论人工智能技术的发展和使用时,脱离算力和数据约束是不可取的——这一点在我们如今的大多数业务场景中都具有深刻含义。例如,虽然现在的算力很强大,但是在具体某项业务中可能难以部署大型神经网络模型,这时候选择更偏规则的解决方案可能会比强行使用神经网络模型更有效。同理,我们如今有大量的数据,但在细分场景下可用的专业型金融数据并不多,这时候单纯依赖模型拟合不能产生最优效果,需要人工智能技术结合专家经验共同构建模型。
2.确定性与不确定性、可解释性与不可解释性是业务中技术选择应当关注的重点
基于符号主义和行为主义理论下的模型通常是确定性的、可解释的,但基于仿生主义和统计主义理论下的模型,通常不确定性和不可解释性较强。我们常常称“神经网络”为“黑盒模型(Black-Box)”,就是因为我们不能完全清楚模型内在的计算逻辑是怎样的,它更像是基于大数据的统计经验。确定性带来精准,不确定性带来随机性,而模型其实既需要精准也需要有某种随机性,模型可解释性越强当然越好,但是大量基于大数据的统计模型解释性不强却很有效。在人工智能发展早期,符号主义和行为主义的专家相对更占先机,这是因为那时的任务多重视确定性和可解释性;在如今我们使用人工智能技术时,仍需要关注在确定性与不确定性、可解释与不可解释之间的权衡。
例如,假设你需要设计一款闲聊机器人,为了让其变得好玩,需要增加模型输出的不确定性。如果你只有一个标准答案作为回复,那么闲聊机器人未免太无趣了。如果你设计的是一款针对金融领域的专家问答机器人,那么你绝对不能引入太多的不确定性,因为一个错误的回答可能会给客户造成严重损失。在设计闲聊机器人时,你甚至可以允许闲聊机器人“胡言乱语”,从而增加趣味性;但如果是金融问答机器人,你绝不会喜欢它随便输出一些莫名其妙的话,而是需要在人工智能技术中融入专业的金融模型,输出精准答案。
3.对人工智能的多种认知和技术并非独立,而是相互融合的
例如,有许多学者在研究机器学习理论(Machine Learning Theory)时,寻找算法模型的统计学基础,这从某种意义上可以看成是仿生主义和统计主义的结合,在强化学习中,逐渐融入了深度学习的模型训练方法,形成深度强化学习(Deep Reinforcement Learning)方法。传统的专家系统也逐渐转变成从专家经验中获得特征,再采用机器学习、深度学习进行模型训练的方式。机器人控制理论也逐渐加入了基于专家经验、统计方法的剪枝方法,以提升人工智能技术的模型准确率。想要在业务中做出更具创新意义的模型应用,常常需要了解不同类型技术的基本思路,再思考如何根据业务场景,将可使用的方法融为一体。
二、低谷来临
人工智能的第一次浪潮一直延续到20世纪60年代末、70年代初。到了20世纪70年代,事情变得有些不一样了。人工智能科学家们发现在这条路上有两个难以解决的困境:
1.指数级增长的计算难度
20世纪60—70年代,在很多应用中科学家们采用的是穷举的思路。但是这种思路在象棋、围棋这样的游戏中变得相当不可行,假设每一步都有10种可能性,那么考虑10步、20步以后的情况,就意味着要进行10 10 级别的运算,这一运算复杂度是指数级增长的。同样,人造机器人的行动路径也有无数种,想要每一步都枚举计算,所消耗的算力在当时无法支撑。并且,这种计算方式并不符合人类思考的直觉。人类往往只是从简单的几种可能性中,根据某种难以解释的“直觉”或者“经验”做出最合适的一种选择,而并不是采用穷举的方式。
2.缺乏落地的成品
总体来讲,20世纪60—70年代,对人工智能的期待一度相当之高。人们期望能够看到一个自主行动,甚至超越人类的智慧机器,但展现出来的成品却只是半分钟都无法移动一步的“笨重机器人”。当时人们对于科技的进步抱有过分乐观的态度,有很多研究是朝着做出“通用人工智能”去的,但我们从后来的经验可以知道,这条道路实际上非常难走。在很长一段时间,人们都没有看到能够商业化、产生商业价值的技术和产品出现,这就导致资本和舆论逐渐失去耐心。随着经费和关注度减少,人工智能技术也就相对受到了冷落。