🔥 神经网络中的不确定性研究综述
【摘 要】 在过去十年中,神经网络几乎触及了每一个科学领域,并成为各种现实世界应用的关键部分。由于越来越多的传播和使用,人们对神经网络预测结果的信心也变得越来越重要。但基础的神经网络要么无法提供不确定性估计,要么存在过于自信或信心不足的问题。为了克服这个问题,许多研究人员致力于理解和量化神经网络中的预测不确定性。前人已经确定了不同类型和来源的不确定性,并提出了各种估计和量化神经网络中不确定性的方法。本文全面概述了神经网络中的不确定性估计,回顾了该领域的最新进展,突出了当前的挑战,并确定了潜在的研究机会。它旨在为任何对神经网络中的不确定性估计感兴趣的人提供一个宽泛的概述和介绍,而不预先假定读者具备该领域的先验知识。为此,论文首先对不确定性来源这一关键因素进行了全面介绍,并将其分为(可还原的) 模型不确定性 和(不可还原的) 数据不确定性 。介绍了基于单一确定性神经网络、贝叶斯神经网络、神经网络集成、测试时数据增强 四种不确定性的建模方法,讨论了这些领域的不同分支及最新发展。在实际应用方面,我们讨论了各种不确定性的测量方法,以及神经网络的校准方法,概述了现有基线和可用成果。来自 ...
有关贝叶斯深度学习误解的回应
【原文序言】 本人对最近 关于贝叶斯深度学习的一些误解 发布了回应 。从那以后,大家一直要求我将其更进一步发展为容易被理解,且能自成一体的参考资料。为此,我专门在此发布此帖,希望对那些正在寻求了解 “贝叶斯推断独特之处” 以及 “贝叶斯推断在深度学习中为何有价值” 的人们有所帮助。此外,最近人们存在一些对 深度集成 和 贝叶斯方法 之间的误解,认为两者之间存在相互竞争的关系,因此,本文还旨在帮助大家厘清 近似贝叶斯推断 和 深度集成 之间的联系。
【论文背景】 2019 年 12 月, OpenAI 的研究人员 Carles Gelada 发布了一篇推文,表示 “贝叶斯神经网络毫无意义”,其主要论据是深度集成方法已经被证明比传统贝叶斯方法更为有效。一石激起千层浪,社区对此言论展开了激烈的讨论,其中纽约大学的 Wilson 教授 对此给予了驳斥,并专门发论文进行了科学地回应。不过话说回来, Carles Gelada 可能真的书读少了,模型选择、模型平均、模型集成不仅仅是贝叶斯领域的重点领域,而且很可能是未来机器真正自动选择 AI 模型的可能解决途径之一。
【原 文】 And ...
🔥 神经网络泛化的贝叶斯概率视角
【摘 要】在现代深度学习中,估计贝叶斯模型平均值的积分有很多挑战,包括高维的参数空间和复杂的后验形态。但是,将这一挑战切实地视为一个积分问题,而非试图为蒙特卡洛近似获得后验样本,会为未来的进展提供机会。贝叶斯深度学习已经取得了快速的实际进展,现在的方法能够比标准训练有更好的准确性和校准,而且开销最小。
【原 文】Wilson, A.G. and Izmailov, P. (2020) ‘Bayesian Deep Learning and a Probabilistic Perspective of Generalization’, in Advances in Neural Information Processing Systems. Curran Associates, Inc., pp. 4697–4708. Available at: https://proceedings.neurips.cc/paper/2020/hash/322f62469c5e3c7dc3e58f5a4d1ea399-Abstract.html.
〖论文贡献〗
论文表明: 深度集成为近似 ...