欢迎访问william威廉中文官网网站!

学术活动

所在位置: 首页 » 学术活动

讲座回顾丨任晓明:深度学习与不确定推理

发布时间:2025-10-29

2025年10月16日下午,william威廉中文官网“会通论坛”邀请南开大学/四川大学任晓明教授做题为“深度学习与不确定推理”的学术讲座,讲座由公司周北海教授主持。

深度学习的逻辑机制和方法论有什么特点是一个值得深入探讨的问题,本次报告主要讨论了贝叶斯神经网络(BNN)等AI技术的逻辑和哲学问题,分为四个部分:第一部分是“不确定推理的认知基础”;第二部分是“例解:不确定推理方法”;第三部分是“深度学习的第一原理”;第四部分是“深度学习与不确定推理的哲学思考”。

图片

讲座伊始,任晓明教授指出在人工智能高速发展的今天,我们面临着一个根本性的挑战:如何在知识不完备、信息模糊的复杂环境中构建合理的推理框架。不确定推理指从不确定性知识或证据出发,通过逻辑或概率方法推导出合理结论的过程,其核心挑战在于如何量化与传递不确定性。

任晓明教授进一步指出与确定性推理相比,不确定推理更符合现实世界的本质:我们生活在一个充满随机性、模糊性和不完全信息的世界中。传统的经典逻辑虽然严谨而精确,但其二值性(非真即假)限制了其在处理真实问题中的应用范围。相比之下,不确定推理能够更好地模拟人类在面对复杂、不确定环境时的认知过程,为人工智能系统提供更具灵活性和适应性的决策支持。

从不确定推理的认知基础出发,任晓明教授详细介绍了不确定性的本质与其形式化表征及不确定性推理的哲学问题。首先,AI不确定性分为三类:认知不确定性、本体论不确定性及规范性不确定性。其中,认知不确定性是最常见的不确定性,源于只是或数据的不足,反映了我们知识的局限性,这一不确定性随着知识和技术的进步可能会减小,但难以完全消除;本体论不确定性反映了系统本身的内在随机性和复杂性,如混沌系统的初值敏感性;规范性不确定性则涉及伦理、价值观和社会规范等方面。

图片

接着,任晓明教授指出不同类型的不确定性需要不同的数学工具进行表征,比如可能性理论、概率论、信念函数,模糊度量这些形式化工具各有优劣,适用于不同的场景。例如,在风险评估中,概率论更加严格的风险量化框架更为适用,而在自然语言处理中,模糊逻辑则更好处理语言的内在模糊性。

此外,除却不确定性的技术问题,任晓明教授对其哲学含义也有着深刻洞见。休谟的因果问题、贝叶斯方法、深度学习模型的“黑箱”特性均存在算法预后与可解释性失衡问题,从而引发了“科学应追求预测精度还是可解释性”的深刻反思。就这一问题,任晓明教授指出可能的答案是:我们应该在可解释性和精确性等性能之间追求一种平衡,不是找到一种最优解,而是发现满意解答,即追求有限理性。

紧接着,任晓明教授又向我们介绍了一些不确定推理方法,例如概率与贝叶斯方法、模糊逻辑与粗糙集、证据理论与非单调推理,包含度理论。

概率理论为不确定性提供了最基本的数学框架。贝叶斯推理通过贝叶斯定理更新信念,处理随机性不确定性。帕尔则基于贝叶斯网络和因果推理构建了概率图模型来解决复杂系统中的不确定性传递与因果解释问题。

贝叶斯神经网络是一种概率图模型,通过有向无环图表示随机变量之间的条件独立关系。每个节点代表一个随机变量,节点之间的边表示变量间的条件依赖关系。其主要优点是理论基础坚实,能够自然地结合先验知识与新证据。但也存在着需要大量数据来准确估计概率分布,在复杂系统中计算后验概率时计算复杂度较高的挑战。随着计算能力的提升和近似算法(如变分推断、马尔可夫链蒙特卡洛方法)的发展,贝叶斯方法(包括贝叶斯网络、蒙特卡洛丢弃等技术)在现代AI系统中得到了广泛应用。

粗糙集理论的基本思想是,由于知识的有限性,我们可能无法精确地定义某些概念,但可以通过已知知识给出上下近似。上近似包含所有可能属于该概念的对象,下近似包含所有确定属于该概念的对象,二者之差为边界区域,反映了概念的模糊性或不确定性。这一理论特别适用于处理不完备信息系统中的分类问题。它不需要额外的先验信息(如概率分布或隶属度函数),完全基于数据内部关系进行分析,在数据挖掘领域有广泛应用。

模糊逻辑的核心思想是,元素对集合的隶属关系是程度化的,而非二值化的。在经典集合论中,一个元素要么属于某个集合,要么不属于(隶属度为0或1);而在模糊集合中,元素可以部分地属于某个集合,其隶属度可以是0到1之间的任何值。模糊逻辑运作通常包括三个主要步骤:模糊化(将精确输入转换为模糊集)、模糊推理(应用模糊规则进行推理)和去模糊化(将模糊输出转换为精确值)。这一流程使得模糊逻辑系统能够处理模糊概念。

证据理论(简称D-S理论)是通过信念函数(Belief Function)和似然函数(Plausibility Function)量化不确定性,支持多假设的合成推理,适用于信息不完备场景,其核心概念是基本概率赋值(Basic Probability Assignment,BPA),它将信念度直接分配给事件集合而非单一事件,从而能够表达“不知道”或部分无知的状态。

非单调逻辑,允许在信息不完备时进行缺省假设,并在新证据出现时修正结论,突破经典逻辑的局限性。传统的经典逻辑是单调的,即随着前提的增加,结论集合只会扩大而不会缩小。这一特性在处理确定性知识时非常有用,但在处理日常推理时却显得过于僵化。而非单调推理与缺省逻辑允许假设在证据不足时成立,并在新证据出现时撤回结论,模拟人类常识推理的动态性。

包含度理论借助广义包含关系可以统合多种不确定推理方法(如概率、模糊逻辑),强调测度的泛化性与信息合成机制。包含度理论提出测度的泛化框架,统合了概率、模糊度等测度,支持信息合成与知识协调,应用于粗糙集与概念格理论。其核心思想是:一个结论的确定性,取决于证据(或前提条件)对结论的支持程度。

图片

随后,任晓明老师向我们介绍了通用近似定理,其核心思想可以概括为:一个包含足够多神经元(即足够宽)的单层前馈神经网络,可以以任意精度近似任何定义在实数空间某个子集上的连续函数。这一定理不但有着丰富且重大的哲学意义,而且对深度学习有着奠基和指引方向的作用,确立了以不确定推理为主导的逻辑架构。

图片

讲座最后,任晓明老师展开了对“为什么说深度学习的推理主要是不确定推理”这一问题的探讨。他认为深度学习的推理过程本质上是基于从数据中学到的概率分布,进行一种不确定性的、近似的最优决策。具体表现在:模型输出的本质上是概率;训练过程是学习概率分布;深度学习中存在确定性推理;深度学习中的推理主要是基于概率的不确定推理。总的来说,不确定性既是挑战,也是机遇。通过深入研究不确定推理的理论与方法,我们可以了解不确定推理的优势,探讨其不足和局限,进而开发出更加智能、更加可靠、更加符合人类期望的AI系统,为解决全球性问题提供强大工具。

在点评互动环节,公司师生对讨论深度学习与不确定性推理的逻辑和哲学问题展开热烈研讨,任晓明教授对大家提出的问题表示肯定肯定且做出详细解答,并表达了对william威廉中文官网师生在深度学习与不确定性推理领域做出贡献的殷切期待。本场讲座持续两个小时,师生反响热烈。最后,本次讲座在与会者的热烈掌声中圆满结束。

供稿人:william威廉中文官网 刘明轩

初审丨吴朋飞

二审丨陈敬坤

终审丨尤   

Copyright http://www.usonsell.com all rights reserved 版权所有:英国·威廉希尔(WilliamHill)中文官方网站
地址:山西省太原市坞城路92号 邮编:030006
联系电话:0351-7010488 联系邮箱:zhexueyuan@sxu.edu.cn (晋)ICP备05000471号

公司订阅号

公司服务号

睿翼传媒