第四节
第二次浪潮与低谷:专家系统与商业化
到了20世纪80年代,专家系统在工业界的落地重新引发了人们对人工智能技术的重视。当时卡内基-梅隆大学(CMU)设计了一款名叫XCON的系统,这一系统能够根据客户设定的需求自动选择相应的计算机组件。它纯粹基于人工构造的规则,并且成功应用到商业生产中,每年节省超过2500万美元的成本。
XCON系统获得的巨大的商业成功,让人们意识到按照这一思路设计人工智能系统是具备商业价值的。这类专家系统只把问题限定在特定领域,如某个行业的营销推广、专业知识等,无须考虑对复杂模型进行训练,也无须担心系统的通用性,只需考虑编写规则即可,其投入产出的性价比很高。
正是因为业界看到了人工智能技术的落地价值,在20世纪80年代人工智能的热潮重新被点燃。在此之后,许多大型企业都开展了人工智能、专家系统相关的研究,尤其以日本和美国为代表的公司,更是在硬件和软件方面都投入了大量资金。
在这一时期,也诞生了如今被广泛使用的深度神经网络。但是当时的计算机算力并不足以支撑比较大型的神经网络模型,因此这一领域还处在初步发展的阶段。1998年,当时还在美国电话电报公司贝尔实验室的杨立昆(Yann LeCun)将卷积神经网络用于识别手写数字,并达到了非常高的准确率,一度掀起学界的高度关注。我们将会看到在这之后的几十年中,这一条人工智能技术的支线继续大放异彩。
从某种意义上讲,第二次浪潮中具有代表性的专家系统能够在这一阶段发展得风生水起,正是避免了上一轮发展中的困境。
1.所需算力不需要指数级增长
专家系统更类似于活字典,并且只是用作辅助功能,并不追求替代人力,所需要的算力开销相对较少。
2.落地成果便于商业化
其成果多为一套商业软件,便于服务企业自身,同时也可以对外商业化,很容易辨别其商业价值。
但很显然,随着大型企业逐渐建立起专家系统后,企业经营者就会意识到:这一系统并没有想象中的那么“智能”:它不能自动更新,并不具备任何学习能力,甚至在之后的维护中会耗费很多成本。人们期待看到的是一个能够从数据中“自主学习”的机器,而不是只会根据人们已有的知识行事的系统。更关键的是,有许多任务并不能很好地根据规则被定义。例如,图像识别,我们并非因为某一个像素的颜色而判定一张图片中的内容是小猫还是小狗,而是根据某种复杂的经验做出的判断,这种经验难以直接转化为规则。因此,在诸多专家系统已经落地之后,从20世纪80年代末到20世纪90年代初,人们对人工智能的兴趣又逐渐减退。再加上当时的日本机器人研发也走向失败,人工智能行业整体都进入了萧条状态。