深度集成方法(Deep Ensembles)
【摘要】 深度神经网络是强大的黑盒预测器,最近在广泛的任务中取得了令人印象深刻的性能。量化神经网络中的 预测不确定性 是一个具有挑战性但尚未解决的问题。贝叶斯神经网络能够学习权重分布,是目前估计 预测不确定性 的最先进技术;但其需要对训练过程进行重大修改,并且与标准(非贝叶斯)神经网络相比,计算成本很高。在本文中,我们提出了贝叶斯神经网络的替代方案:深度集成。该方案易于实现、易于并行化并产生高质量的 预测不确定性 估计。通过一系列关于分类和回归基准的实验,我们证明它能够产生校准良好的不确定性估计,并且与贝叶斯神经网络一样好甚至更好。最后,我们评估了测试样本(类别已知或未知)的 预测不确定性 ,结果表明我们的方法能够在未知类上表达出更高程度的不确定性,这与y现有方法对未知类别也做出过度自信的预测相比,存在明显改进。
【原文】 Lakshminarayanan, B., Pritzel, A. and Blundell, C. (2017) ‘Simple and Scalable Predictive Uncertainty Estimation using Deep Ens ...
共形预测初学者教程
【摘 要】 黑盒机器学习模型现在常被应用于高风险环境中,例如医疗诊断,这需要量化不确定性以避免模型失败。共形预测是一种用户友好的范式,用于为上述高风险的预测创建统计上严格的不确定性集合(或区间)。至关重要的是,这些集合在数据分布不明确的意义上也是有效的:即使没有分布假设或模型假设,这些集合也具有明确的、非渐近的保证。可以将共形预测与任何已经训练好的模型(例如神经网络)一起使用,以生成能够按照用户指定概率(如 90%90\%90% )包含基本事实的集合。共形预测易于理解、易于使用并且具备通用性,适用于计算机视觉、自然语言处理、深度强化学习等领域出现的各类问题。本文旨在通过一个自包含的文档,使读者能够理解共形预测和相关无分布不确定性量化技术工作原理。我们将引导读者了解共形预测的实用理论和示例,并描述其对复杂机器学习任务的扩展,包括结构化输出、分布偏移、时间序列、异常值、Dropout 模型等。
【原 文】 Angelopoulos, A. N. and Bates, S.(2021). “A Gentle Introduction to Conformal Prediction ...
场景理解任务中的多任务学习与不确定性
【摘 要】 许多景深学习应用受益于具有多个回归和分类目标的多任务学习。在本文中,我们观察到此类系统的性能在很大程度上取决于每个任务损失之间的相对权重。手动调整这些权重是困难且昂贵的,这使多任务学习在实践中令人望而却步。我们提出了一种多任务景深学习的原理性方法,它通过考虑每个任务的同质不确定性来权衡多个损失函数。这使我们能够在分类和回归任务中同时学习具有不同尺度或类别的各种数据。我们的模型从单眼输入图像中学习了逐像素的景深回归、语义分割和实例分割。也许会令人惊讶,我们发现,该模型能够学得多任务的权重,并且其性能胜过了在每个任务上单独训练的模型。
【原 文】 Kendall, A., Gal, Y., and Cipolla, R. 2018. Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CV ...
主动学习与深度贝叶斯网络(图像分类任务)
【摘 要】尽管主动学习是机器学习的重要支柱,但深度学习工具在其中应用并不普遍。在主动学习场景中使用深度学习会带来一些困难。首先,主动学习处理的对象是小数据,而深度学习的最新进展主要源于其对大量数据的依赖。其次,许多采集能力依赖于模型的不确定性估计,而在深度学习中很少表示模型的不确定性。本文基于深度学习的贝叶斯方法,以实用方式将贝叶斯深度学习的最新进展结合到了主动学习框架中。我们为高维数据开发了一个主动学习框架,这项任务在已有文献非常匮乏的情况下极具挑战性。利用贝叶斯卷积神经网络等专门模型,本文以图像数据为示例展示我们的主动学习技术,结果表明该技术能够显著改进现有主动学习方法。
【原 文】 Gal Y., Islam R., Ghahramani Z. (2016) Deep Bayesian Active Learning with Image Data. In: Bayesian Deep Learning workshop, NIPS
【阅后感】 本文对于那些尚不太清楚不确定性能做什么的人,是一个结合图像数据的很好案例。对于那些想提升主动学习效率的读者,也会有所帮助 ...
🔥 神经网络中的不确定性研究综述
【摘 要】 在过去十年中,神经网络几乎触及了每一个科学领域,并成为各种现实世界应用的关键部分。由于越来越多的传播和使用,人们对神经网络预测结果的信心也变得越来越重要。但基础的神经网络要么无法提供不确定性估计,要么存在过于自信或信心不足的问题。为了克服这个问题,许多研究人员致力于理解和量化神经网络中的预测不确定性。前人已经确定了不同类型和来源的不确定性,并提出了各种估计和量化神经网络中不确定性的方法。本文全面概述了神经网络中的不确定性估计,回顾了该领域的最新进展,突出了当前的挑战,并确定了潜在的研究机会。它旨在为任何对神经网络中的不确定性估计感兴趣的人提供一个宽泛的概述和介绍,而不预先假定读者具备该领域的先验知识。为此,论文首先对不确定性来源这一关键因素进行了全面介绍,并将其分为(可还原的) 模型不确定性 和(不可还原的) 数据不确定性 。介绍了基于单一确定性神经网络、贝叶斯神经网络、神经网络集成、测试时数据增强 四种不确定性的建模方法,讨论了这些领域的不同分支及最新发展。在实际应用方面,我们讨论了各种不确定性的测量方法,以及神经网络的校准方法,概述了现有基线和可用成果。来自 ...
有关贝叶斯深度学习误解的回应
【原文序言】 本人对最近 关于贝叶斯深度学习的一些误解 发布了回应 。从那以后,大家一直要求我将其更进一步发展为容易被理解,且能自成一体的参考资料。为此,我专门在此发布此帖,希望对那些正在寻求了解 “贝叶斯推断独特之处” 以及 “贝叶斯推断在深度学习中为何有价值” 的人们有所帮助。此外,最近人们存在一些对 深度集成 和 贝叶斯方法 之间的误解,认为两者之间存在相互竞争的关系,因此,本文还旨在帮助大家厘清 近似贝叶斯推断 和 深度集成 之间的联系。
【论文背景】 2019 年 12 月, OpenAI 的研究人员 Carles Gelada 发布了一篇推文,表示 “贝叶斯神经网络毫无意义”,其主要论据是深度集成方法已经被证明比传统贝叶斯方法更为有效。一石激起千层浪,社区对此言论展开了激烈的讨论,其中纽约大学的 Wilson 教授 对此给予了驳斥,并专门发论文进行了科学地回应。不过话说回来, Carles Gelada 可能真的书读少了,模型选择、模型平均、模型集成不仅仅是贝叶斯领域的重点领域,而且很可能是未来机器真正自动选择 AI 模型的可能解决途径之一。
【原 文】 And ...
🔥 神经网络泛化的贝叶斯概率视角
【摘 要】在现代深度学习中,估计贝叶斯模型平均值的积分有很多挑战,包括高维的参数空间和复杂的后验形态。但是,将这一挑战切实地视为一个积分问题,而非试图为蒙特卡洛近似获得后验样本,会为未来的进展提供机会。贝叶斯深度学习已经取得了快速的实际进展,现在的方法能够比标准训练有更好的准确性和校准,而且开销最小。
【原 文】Wilson, A.G. and Izmailov, P. (2020) ‘Bayesian Deep Learning and a Probabilistic Perspective of Generalization’, in Advances in Neural Information Processing Systems. Curran Associates, Inc., pp. 4697–4708. Available at: https://proceedings.neurips.cc/paper/2020/hash/322f62469c5e3c7dc3e58f5a4d1ea399-Abstract.html.
〖论文贡献〗
论文表明: 深度集成为近似 ...
贝叶斯深度学习研究综述
【摘 要】 一个全面的人工智能系统不仅需要感知环境,还需要推断关系(甚至因果)及其不确定性。过去十年中,深度学习在感知任务中取得了重大进展,例如:用于视觉对象识别和语音识别。但对更高级的推断任务而言,具有贝叶斯性质的概率图模型(Probabilistic Graphical Model, PGM )则更强大和灵活。近年,贝叶斯深度学习作为统一的概率框架出现,将深度学习和贝叶斯模型紧密结合在一起,用深度学习对文本、图像的感知能力来提高进一步推断的性能,反过来,通过推断过程的反馈来增强文本或图像的感知能力。本文对贝叶斯深度学习进行了较为全面的介绍,综述了贝叶斯深度学习在推荐系统、主题模型、控制等方面的应用,并讨论了贝叶斯深度学习与神经网络的贝叶斯处理等相关课题的联系与区别。
【原 文】 Wang H, Yeung D Y. A survey on Bayesian deep learning[J]. ACM Computing Surveys (CSUR), 2020, 53(5): 1-37.
【作者博客】 wanghao.in/BDL.html
【阅后感】 贝叶斯深度学习的 ...
MCDropout 用于多任务学习
【摘 要】 理解模型的不确定性(uncertainty)是机器学习的关键。但能够理解不确定性的传统机器学习方法(如高斯过程,Gaussian Processes, GP),很难应用于如图像、视频等高维数据。深度学习(Deep Learning)能够高效处理该类数据,但其难以对不确定性建模。本文将介绍一个重新兴起的领域,称为贝叶斯深度学习 (贝叶斯深度学习),它提供了一个可以建模不确定性的深度学习框架。贝叶斯深度学习可以达到最先进的结果,同时也能理解不确定性。
【原 文】 见 Deep Learning Is Not Good Enough,We Need Bayesian Deep Learning for Safe AI
【阅后感】 本文作者是 MC Dropout 方法提出团队的成员之一,本文以博客形式发布,浅显易懂,可以作为入门级别的读物。重点掌握:(1)不确定性的来源和分类;(2)不同不确定性的建模思路;(3)在偶然不确定性方面,作者提出了数据依赖和任务依赖两种子类型,并针对任务依赖型数据不确定性进行了建模;(4)具体技术细节参考博文中提供的两篇论文。
1、 背景
...
现代神经网络的校准
【摘 要】 “信念校准”(预测器输出的概率性预测结果与真实正确结果之间的可代表性纠正问题)对于许多分类模型非常重要。我们发现,与十年前不同,现代神经网络的校准很差。通过大量实验,我们观察到深度、宽度、权重衰减和批量归一化是影响校准的重要因素。我们评估了各种后处理校准方法在图像和文档分类数据集及现代神经网络架构上的性能。我们的分析和实验不仅提供了对神经网络学习的见解,而且还为实际场景提供了一个简单而直接的方法:在大多数数据集上,温度定标法(一种 Platt 定标法 的单参数变体)在校准预测方面非常有效。
【原 文】 Guo, C., Pleiss, G., Sun, Y., and Weinberger, K. Q. 2017. On Calibration of Modern Neural Networks. Proceedings of the 34th International Conference on Machine Learning, PMLR, 1321–1330.
【阅后感】 本文是近年有关现代神经网络的不确定性校准问题的最重要的一篇文献。作者在总结了分类神 ...