溯因推理:人工智能的盲点

大数据文摘

共 4868字,需浏览 10分钟

 ·

2021-10-02 00:51


大数据文摘授权转载自数据实战派

作者:Ben Dickson

译者:青苹果


深度学习的最新进展重燃了人们对可以像人类一样思考和行动的机器或通用人工智能(AGI, Artificial General Intelligence)的兴趣。


这种想法认为,沿着构建更大更好的神经网络的道路前进,我们将会向创造数字版的人类大脑不断迈进。


或许,这就是个神话。计算机科学家埃里克·拉森(Erik Larson)认为,所有证据都表明人类和机器智能完全不同。Larson 的新书《人工智能的神话:为什么计算机不能像我们那样思考》(The Myth of Artificial Intelligence: Why Computers Can’t not Think of The Way We Do)讨论了广泛宣传的有关于智能和推理的误解是如何将 AI 研究引向限制创新和科学发现的狭窄道路的。


Larson 警告说,除非科学家、研究人员和支持其工作的组织不改变方向,否则他们将注定要“听命于机器世界的蔓延,在那里真正的发明被边缘化,取而代之的是鼓吹当前方法的未来主义言论,而这些言论往往来自既得利益者。”


人工智能的神

从科学的角度来看,AI 的神话假设我们将通过在狭义的应用上取得进展来实现 AGI,如图像分类、理解语音命令或玩游戏等。但这些狭隘人工智能(Narrow AI, 只能完成某一项特定任务或者解决某一特定问题的人工智能)系统所采用的技术并不能解决通用智能能力必须解决的更广泛的挑战,如进行基本对话、完成简单的家务或其他需要常识的任务。


Larson 写道:“当我们成功地应用更简单、更狭义的智能版本(这些版本受益于更快的计算机和大量数据)时,我们并未取得渐进式的进展,而是在采摘唾手可得的果实。”


AI 神话的必然结果是忽视智能的科学奥秘,无休止地谈论深度学习和其他当代技术的不断进步。正因此谬论,科学家思考解决智力挑战的新方法屡次受阻。


Larson写道:“如果我们面对一个核心谜题时,选择视而不见而非坦然直面,我们就几乎不可能获得创新。健康的创新文化强调探索未知,而不是炒作现有方法的延伸……有关 AI 必然成功的神话,往往会扼杀真正进步所必需的发明文化。”


演绎、归纳和溯因推理

当你踏出家门,发现街道湿漉漉的。直觉会告诉我们,一定是下雨了。


然而,天气晴朗,人行道干燥,你立即排除了下雨的可能性。随后,你将视线移到旁边,发现一辆洗路车停在街上。因此,你得出结论,道路之所以湿,是因为经历了洗路车的冲刷。


这是一个“推理”的例子,即从观察到结论的行为,是智能生物的基本功能。我们不断地依据所知道的和所感知的来推断事物。大多数情况是在潜意识中发生的,在我们的思想背景中,并没有重点聚焦和直接关注。


Larson 表示:“任何进行推理的系统都必须具有一些基本的智能,因为使用已知和观察到的信息来更新信念的行为,不可避免地会与我们所说的智能相关联”。


AI 研究人员将其系统建立在两种推理机的基础上:演绎(deductive)和归纳(inductive)。具体来说,演绎推理运用先验知识对世界进行推理。这是符号AI的基础,也是 AI 最初几十年研究人员的主要关注点。工程师通过赋予符号系统一套预定义的规则和事实来创建符号系统,AI 便使用这些知识对接收到的数据展开推理。


而归纳推理是通过经验获取知识,在过去十年中,深受 AI 研究人员和科技公司的青睐。机器学习(ML,Machine Learning)算法可视为归纳推理的引擎。在相关示例上训练的 ML 模型必然会找到将输入映射到输出的模式。近年来,AI 研究人员利用 ML 技术、大数据和高级处理器对模型进行训练,以完成符号系统无法胜任的任务。


第三种推理,溯因推理,由美国科学家查尔斯·桑德斯·皮尔斯(Charles Sanders Peirce)在 19 世纪首次提出。溯因推理是一种认知能力,能够产生直觉和假设,做出比随机刺探真相更好的猜测。


例如,街道变湿的原因可能有很多(包括一些我们之前没有直接经历过的),但溯因推理使得我们能够选择最有希望的假设,迅速排除错误选项,寻找新的假设并得出可靠的结论。正如 Larson 在《人工智能的神话》一书中说的那样,“我们猜测,在一个充满无限可能性的背景下,哪些假设似乎是可能或可信的。”


溯因推理就是许多人所说的“常识”。它是我们观察事实或数据的概念性框架,也是将其他类型的推理结合在一起的粘合剂。它使得我们能够随时专注于头脑中存在的大量信息和通过感官所接收的大量数据中的相关内容。


然而,问题在于 AI 社区尚未对溯因推理给予足够的重视。


人工智能和溯因推理

在 20 世纪 80 年代和 90 年代,溯因在溯因逻辑编程(Abductive Logic Programming)的尝试中走进了 AI 讨论,但这些努力都存在缺陷,后来被放弃了。Larson 告诉 TechTalks:“它们是对逻辑编程的重写,是演绎的一种变体。”


在 2010 年代,溯因获得了另一个机会,即贝叶斯网络,一种试图计算因果关系的推理引擎。但 Larson说,与早期的方法一样,新方法也有一个缺陷,那就是不能捕捉到真正的溯因。此外,他强调,贝叶斯和其他图形模型都是“归纳法的变体”。在《人工智能的神话》中,他称之为“名义上的溯因”。


在很大程度上,AI 的历史一直被演绎和归纳所主导。


Larson 说:“当早期的 AI 先驱,如[Alan] Newell、[Herbert] Simon、[John] McCarthy 和 [Marvin] Minsky 等开始研究人工推理(AI 的核心)问题时,他们认为编写演绎式规则会足以产生智能思维和行动。”“事实并非如此,早在讨论我们如何开展科学研究时就应该承认这一点。”


几十年来,研究人员试图通过提供手动编写的规则和事实来扩展符号 AI 系统的力量。前提是,如果你赋予 AI 系统人类所知晓的所有常识,它就能像人类一样聪明地行动。但纯粹的符号 AI 由于种种原因失败了。符号系统无法获取和添加新知识,这使得它们变得僵化。创建符号 AI 变成了无休止的追逐,添加新事实和规则不过是为了发现系统所犯无法修复的新错误。我们的很多知识都是隐性的,无法用规则和事实来表达,也无法直截了当的灌输给符号系统。


“奇怪的是,没有人真正明确地停下来说‘等一下’。这是行不通的!” Larson 强调。“这将把研究直接转向溯因或假设生成,或者说,‘上下文敏感的推理’。”


在过去的二十年里,随着数据和计算资源的可用性不断增长,ML 算法——尤其是深度神经网络——无疑成为 AI 领域关注的焦点。深度学习技术已经解锁了许多超越先前计算机限制的应用程序。并且,它吸引了世界上一些最富有的公司的兴趣和资金。


“我认为随着万维网的出现,经验或归纳(以数据为中心)的方法占据了主导地位,而溯因和推理在很大程度上被遗忘了,”Larson 说。


但 ML 系统也受到了严重的限制,包括缺乏因果关系、边缘案例处理不佳,以及需要大量数据。随着研究人员尝试将 ML 应用于医疗和金融等敏感领域,这些限制变得越来越明显和问题化。


AI 的溯因推理和未来道路

包括强化学习的先驱理查德·萨顿(Richard Sutton)在内的一些科学家认为,我们应该坚持使用能够随着数据和计算的可用性而扩展的方法,即学习和搜索。例如,随着神经网络变得更大,接受更多数据的训练,它们终将克服自身限制并取得新的突破。


Larson 对数据驱动的 AI 的扩展不屑一顾,认为它“作为一种智能模型存在根本的缺陷”。他重申,尽管搜索和学习都可以提供有用的应用,但其都是基于非溯因推理。


“如果没有一场关于推理的思考革命,搜索将不会扩展到常识或溯因推理,而这还没有发生。与 ML 类似,学习方法的数据驱动本质上意味着推理必须存在于数据之中,可以这么说,但这显然并不适用于人们日常执行的许多智能推理” ,Larson 说道。“我们不只是着眼于过去,比如,透过在大型数据集中捕捉到的过去,以得出对未来的结论、思考或推断。”


其他科学家认为,将符号系统和神经网络结合在一起的混合AI在解决深度学习的缺点方面拥有更值得期待的前景。其中,一个例子是 IBM 沃森(Watson),它在美国最受欢迎的智力竞赛电视节目《危险边缘》(Jeopardy!)击败世界冠军时就出名了。最近的概念验证混合模型在符号 AI 和深度学习单独表现不佳的应用中显示出了有希望的结果。


Larson 认为,混合系统可以填补只使用ML或只基于规则的方法的空白。作为 NLP 领域的研究人员,他目前正致力于将大型预训练语言模型(如 GPT-3)与以知识图形式出现的语义网络的旧工作相结合,以在搜索、问答和其他任务上创建更好的应用。


他说:“但是演绎-归纳组合并不能让我们进行溯因,因为这三种类型的推理在形式上是截然不同的,所以它们不会相互还原,也无法结合起来得到第三种。”


在《人工智能的神话》一书中,Larson 将试图规避溯因的行为描述为“推理陷阱”。


他写道:“无论计算机的速度有多快,像 ML 这样纯粹的归纳启发技术仍然存在不够成熟,并且像沃森这样的混合系统也缺乏一般的理解。在诸如需要语言理解之类的开放式场景中,溯因是核心且不可替代的。正因为如此,试图结合演绎和归纳策略的尝试总是注定要失败……这一领域需要一个基本的溯因理论。与此同时,我们陷入了困境。”


人工智能的商业

AI 社区对数据驱动方法的狭义关注已使研究和创新集中在少数几个拥有大量数据和雄厚资金的组织中。随着深度学习成为一种将数据转化为盈利产品的有效方式,大型科技公司现在陷入了聘用 AI 人才的激烈竞争中,以高薪为诱饵,吸引研究人员走出学术界。


这种转变使得非营利实验室和小公司很难参与到 AI 研究之中。


Larson 说:“当你把 AI 的研发与非常大的数据集的所有权和控制权联系在一起时,你就会为那些不拥有数据的初创企业设置准入障碍。”并补充说,数据驱动的 AI 在本质上造成了商业领域“赢者通吃”的局面。


AI 的垄断反过来也阻碍了科学研究。随着大型科技公司专注于开发应用程序,利用其庞大的数据资源保持对竞争对手的绝对优势,因此几乎没有动力来探索 AI 的替代方法。这一领域的研究开始倾向于狭义的、有利可图的应用,从而牺牲了能够带来新发明的努力。


Larson 说:“目前没人知道,在不具备如此庞大的集中式数据集的情况下,AI 会是怎样?因此,对于那些希望通过设计不同的、更强大的 AI 来与之竞争的企业家来说,真的没有什么可提供的。”


在书中,Larson 对当前的 AI 文化提出了预警,这种文化“正在从唾手可得的果实中榨取利润,同时继续编造 AI 神话”。他写道,对 AGI 进展的幻想可能导致另一个 AI 冬天。


不过,尽管 AI 冬天可能会减弱人们对深度学习和数据驱动 AI 的兴趣,但它可以为新一代思想家探索新方向开辟道路。Larson 希望科学家在现存方法上进行探索并超越。


Larson 在其书中还提供了一个推理框架,阐明了该领域目前面临的挑战,并帮助读者了解有关 AGI 或奇点(singularity)进展的夸大说法。


Larson 表示:“我希望非专业人士有一些工具来对抗这种不科学的必然性思维,我的同事和其他 AI 科学家应该将其视为警钟,致力于解决该领域面临的非常现实的问题。”


原文:

Abductive inference: The blind spot of artificial intelligence



点「在看」的人都变好看了哦!
浏览 56
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报