局部和全局稀疏高斯过程近似
〖摘 要〗高斯过程 (GP) 模型是可以用于回归、分类和其他任务的概率非参数模型。它们在大型数据集上存在计算困难的问题。在过去的十年中,已经开发了许多不同的近似来降低此成本。其中大部分方法可以被称为全局近似,因为它们试图通过一小组支撑点来总结所有训练数据。一种不同的方法是局部回归,其中许多局部专家占据自己的部分空间。在本文中,我们首先研究这些不同方法在哪些情况下会运作良好或失败。然后继续开发一种新的稀疏高斯过程近似,它是全局和局部方法的组合。从理论上讲,我们证明它是 Quinonero-Candela 和 Rasmussen [2005] 提出的稀疏高斯过程近似的自然扩展。我们在一些一维示例和一些大型现实世界数据集上展示了组合近似的好处。
〖原 文〗 Snelson, Edward, and Zoubin Ghahramani. “Local and Global Sparse Gaussian Process Approximations.” In Proceedings of the Eleventh International Conference on Artifi ...
🔥 可扩展高斯过程综述
【摘 要】大数据带来的海量信息以及不断发展的计算机硬件鼓励了机器学习社区的成功案例。同时,它对高斯过程回归 (GPR) 提出了挑战,高斯过程回归是一种众所周知的非参数且可解释的贝叶斯模型,其具有数据规模的三次方复杂性。为了在保持理想预测质量同时,能够提高扩展性,业界已经提出了各种可扩展高斯过程。然而,它们还没有得到全面的回顾和分析,以得到学术界和工业界的充分理解。由于数据量的爆炸式增长,在高斯过程社区中对可扩展高斯过程进行回顾是及时且必要的。为此,本文致力于回顾涉及两个主要类别的最先进的可扩展高斯过程:一是提炼完整数据的全局近似,二是划分数据以进行子空间学习的局部近似。对于全局近似,我们主要关注稀疏近似,包括改进先验但执行精确推断的先验近似、保留精确先验但执行近似推断的后验近似、利用核(协方差)矩阵中特定结构的结构化稀疏近似。对于局部近似,我们突出了专家混合和专家乘积,这些专家方法对多个局部专家进行模型平均以提高预测。为了提供完整回顾,本文还介绍近年在提高可扩展高斯过程的扩展性和功能方面取得的进展。最后,回顾和讨论了可扩展高斯过程在各种场景中的扩展和开放问题,以激发未来研究 ...
现代高斯过程回归速览
1 无限模型表达 + 现代计算
有没有想过如何创建具有 无限表达能力 的非参数监督学习模型?看看 高斯过程回归 (GPR),这是一种几乎完全根据数据本身学习做出预测的算法(在超参数的帮助下)。将此算法与自动微分等最新的计算进展相结合,可以应用高斯过程回归近乎实时地解决各种受监督的机器学习问题。
在本文中,我们将讨论:
高斯过程回归理论的简要概述/回顾
我们可以使用高斯过程回归解决的问题类型,以及一些例子
高斯过程回归与其他监督学习算法的比较
可以用来实现高斯过程回归的现代编程包和工具
这是我的高斯过程回归系列中的第二篇文章。如需从头开始对高斯过程回归进行严格的介绍,请查看我之前的文章 此处。
2 高斯过程回归的概念
在深入研究如何实现和使用高斯过程回归之前,先快速回顾一下这个监督机器学习算法背后的机制和理论。关于以下概念的详细推导/讨论,请查看我之前的文章《高斯过程回归》 的文章。
(i)以 观测到的 训练点为条件,预测测试点的 条件后验分布:
(ii)将测试点目标的 均值 被预测为 已观测到的目标值的线性组合,这些线性组合的权重,则由从训练输入到测试点的核距离 ...
🔥 稀疏高斯过程及其变分推断
〖摘 要〗 高斯过程 (Gaussian Processes,高斯过程) 为贝叶斯推断提供了一个数学上优雅的框架,可以为大量问题提供原则性的不确定性估计。例如,对于某些具有高斯似然的回归问题,高斯过程模型具有封闭形式的后验。然而,后验高斯过程(高斯过程的后验依然是一个高斯过程分布,此处将之简称为后验高斯过程)的计算复杂度与训练样本数量成立方关系,并且所有训练样本均需要在内存中存储。为克服这些问题,已经提出了使用伪训练样本(也称为或)来获取近似后验高斯过程的方法 – 稀疏高斯过程(Sparse Gaussian Processes)。用户可以自己定义伪训练样本的数量,进而控制计算和内存复杂度。在一般情况下,稀疏高斯过程无法得到封闭解,必须求助于近似推断。在此情况下,变分推断是近似推断的一种选择。变分方法将贝叶斯推断问题转化为优化问题,通过最大化对数边缘似然下界( ELBO\mathbb{ELBO}ELBO )的方法,得到近似的后验分布。变分推断为构建强大且多功能的框架铺平了道路,在其训练过程中,伪训练样本与(先验和似然的)超参数一起,被视为待优化的参数。该框架可以扩展到更为广 ...