可扩展结构化高斯过程的核插值 (KISS-GP)
【摘 要】引入了一种新的结构化核插值 (SKI) 框架,它泛化并统一了可扩展高斯过程 (GP) 的归纳点方法。 SKI 方法通过核插值生成核近似值以进行快速计算。 SKI 框架阐明了归纳点方法的质量与归纳(也称为插值)点数量、插值策略和协方差核之间的关系。 SKI 还允许通过选择不同的核插值策略来创建新的可扩展核。使用 SKI 框架,通过局部的三次核插值,我们引入了 KISS-GP,该方法:1) 比归纳点替代方案更具可扩展性;2) 自然地使 Kronecker 和 Toeplitz 代数,并在可扩展性方面获得实质性收益,且无需任何网格数据支撑;3)可用于快速和富有表现力的核学习。 KISS-GP 花费 O(n)\mathcal{O}(n)O(n) 的时间和存储复杂度来进行高斯过程推断。
【原 文】 Wilson, A. and Nickisch, H. (2015) ‘Kernel interpolation for scalable structured gaussian processes (KISS-GP)’, in F. Bach and D. Blei (eds) ...
非高斯似然高斯过程的随机变分推断
【摘 要】 学习归纳变量的变分框架 (Titsias, 2009a) 对高斯过程文献产生了很大影响。该框架可以解释为最小化近似过程和后验过程之间严格定义的 Kullback-Leibler 散度。据我们所知,迄今为止,这种联系在文献中并未被提及。在本文中,我们对有关该主题的文献进行了实质性的概括。我们给出了无限索引集结果的新证明,它允许归纳不是数据点的点和依赖于所有函数值的可能性。然后,我们讨论了扩充索引集,并表明,与以前的工作相反,扩充的边缘一致性不足以保证变分推断与原始模型的一致性。然后,我们描述了可以获得这种保证的额外条件。最后,我们展示了我们的框架如何阐明域间稀疏近似和 Cox 过程的稀疏近似。
【原 文】 Matthews, A.G. de G. et al. (2015) ‘On Sparse variational methods and the Kullback-Leibler divergence between stochastic processes’. arXiv. Available at: https://doi.org/10.48550/ARX ...
稀疏高斯过程归纳点的变分学习(Titsias2009 )
【摘 要】 使用归纳变量的稀疏高斯过程方法需要选择归纳输入和核超参数。我们引入了一种用于稀疏近似的变分公式,它通过最大化真实对数边缘似然的下限来联合推断归纳输入和核超参数。该公式的关键属性是归纳输入被定义为变分参数,这些变分参数是通过最小化变分分布与隐函数值的精确后验分布之间的 Kullback-Leibler 散度来选择的。我们将这种技术应用于回归,并将其与文献中的其他方法进行比较。
【原 文】 Titsias, Michalis. “Variational Learning of Inducing Variables in Sparse Gaussian Processes.” In Proceedings of the Twelth International Conference on Artificial Intelligence and Statistics, edited by David van Dyk and Max Welling, 5:567–74. Proceedings of Machine Learning Research. Hilton Cl ...
GPyTorch:带GPU加速的黑盒矩阵-矩阵高斯过程推断
【摘 要】 尽管可扩展模型取得了进步,但用于高斯过程 (GP) 的推断工具尚未充分利用计算硬件的发展。我们提出了一种基于黑盒矩阵-矩阵乘法 (BBMM) 的高斯过程推断的有效通用方法。 BBMM 推断使用修改后的共轭梯度算法的批处理版本在一次调用中导出用于训练和推断的所有项。 BBMM 将精确高斯过程推断的渐近复杂度从 \mathcal{O}(n3) 降低到 \mathcal{O}(n2)。使该算法适用于可扩展的近似值和复杂的高斯过程模型只需要一个程序即可与核及其导数进行高效的矩阵-矩阵乘法。此外,BBMM 使用专门的预处理器来大大加快收敛速度。在实验中,我们表明 BBMM 有效地使用 GPU 硬件来显著加速精确的高斯过程推断和可扩展的近似。此外,我们还提供了 GPyTorch,这是一个基于 PyTorch 构建的通过 BBMM 进行可扩展高斯过程推断的软件平台。
【原 文】 Gardner, Jacob, Geoff Pleiss, Kilian Q Weinberger, David Bindel, and Andrew G Wilson. “GPyTorch: Bla ...
稀疏变分方法和随机过程之间的 KL 散度
【摘 要】 学习归纳变量的变分框架 (Titsias, 2009a) 对高斯过程文献产生了很大影响。该框架可以解释为最小化近似过程和后验过程之间严格定义的 Kullback-Leibler 散度。据我们所知,迄今为止,这种联系在文献中并未被提及。在本文中,我们对有关该主题的文献进行了实质性的概括。我们给出了无限索引集假设下的新证明,它允许不属于训练集的归纳点和依赖于所有函数值集的似然。然后,我们讨论了增广索引集,并表明,与以前的工作相反,增广的边缘一致性不足以保证变分推断近似与原始模型的一致性。我们进一步推导出了获得这种保证的额外条件。最后,我们以 域间稀疏近似 和 Cox 过程 为例,展示了我们的稀疏近似框架。
【原 文】 Matthews, A.G. de G. et al. (2015) ‘On Sparse variational methods and the Kullback-Leibler divergence between stochastic processes’. arXiv. Available at: https://doi.org/10.4855 ...
GPflow:使用 TensorFlow 的高斯过程库
【摘 要】 GPflow 是一个以 TensorFlow 为核心计算,以 Python 为前端的高斯过程库。其设计特别强调软件测试,并且能够利用 GPU 硬件。
【原 文】 Matthews, Alexander G. de G., Mark van der Wilk, Tom Nickson, Keisuke Fujii, Alexis Boukouvalas, Pablo León-Villagrá, Zoubin Ghahramani, and James Hensman. “GPflow: A Gaussian Process Library Using TensorFlow,” 2016. https://doi.org/10.48550/ARXIV.1610.08733.
1 现有的高斯过程库
现在有许多公开可用的高斯过程库,规模从个人项目到主要社区工具不等。因此,我们将只考虑现有库的相关子集。有影响力的 GPML 工具箱(Rasmussen 和 Nickisch,2010 年[11])使用了 MATLAB。它已被广泛 forked。对我们特别有参考价值的是 G ...
贝叶斯优化概述(节选)
1 概述
优化是一种与生俱来的人类行为。在个人层面上,我们努力改善自己和周围的环境。在集体层面上,社会努力分配有限资源以改善其成员福利,自从 12000 多年前通过育种驯化农作物以来,优化一直是社会进步的引擎,这一努力一直持续到今天。
鉴于其普遍性,优化也很难这件事情也许就不足为奇了。当我们在寻找最优设计时,必须花费资源(有时相当大)来评估次优的备选方案。这迫使我们寻求(在必要时)“能够精心分配资源以尽可能有效地确定最佳参数的” 优化方法。这正是数学优化的目标。
自 1960 年代以来,统计和机器学习社区已经逐步完善了在本书中开发和探索的贝叶斯优化方法。贝叶斯优化程序依赖于目标函数的统计模型,其给出的信念将指导算法做出最有成效的决策。这些统计模型可能非常复杂,并且在优化过程中维护它们可能会产生巨大成本。不过,这种努力的回报是样本效率。出于此原因,在存在如下目标优化问题时,贝叶斯优化具有显著的需要:
优化目标的计算代价较高,无法进行详尽评估
优化目标缺乏有用的表达,使其成为 “黑匣子” 式的函数
优化目标无法进行精确评估,只能通过一些间接或含噪声的机制
优化目标没有提供有效 ...
精确高斯过程的GPU并行推断程序
【摘 要】 高斯过程 (GP) 是灵活的非参数模型,其容量随着可用数据的增加而增长。但标准推断程序的计算局限性将精确高斯过程限制在训练点在一万以内的问题上,对于更大的数据集则需要进行近似。在本文中,我们为精确高斯过程开发了一种可扩展的方法,该方法利用多 GPU 并行化、线性共轭梯度等方法,仅通过矩阵乘法访问协方差矩阵。通过划分和分布协方差矩阵乘法,我们证明,可以在不到 2 小时的时间内训练一个超过一百万个点的精确高斯过程,这是以前认为不可能完成的任务。此外,我们的方法具有普遍适用性,不受网格数据或特定核类型的限制。通过这种可扩展性,我们首次对具有 10410^4104 − 10610^6106 个数据点的数据集,进行了精确高斯过程与可扩展高斯过程近似之间的比较,显示出显著的性能改进。
【原 文】 Wang, K.A. et al. (2019) ‘Exact Gaussian Processes on a Million Data Points’. Available at: https://doi.org/10.48550/ARXIV.1903.08114.
1 引言
高 ...
对神经切线核的初步理解
【摘 要】 想理解神经网络的训练动态过程,不妨从「神经切线核」入手。那么什么是神经切线核,核机制如何运行?就读于印度理工学院马德拉斯分校电气工程系的 Rajat Vadiraj Dwaraknath 撰文介绍了这一概念。
博客地址:https://rajatvd.github.io/NTK/
文章动图地址:https://github.com/rajatvd/NTK
神经切线核相关论文地址:https://arxiv.org/abs/1806.07572
1 引言
图 1: _这张动图展示了神经网络的训练动态过程。
最近一系列关于理论深度学习的论文讨论了在 无限宽 极限下分析神经网络的问题。这个极限最初似乎不切实际,甚至研究起来毫无意义;但事实证明,此时的神经网络可以简化为具有神经切线核的 线性模型,这使得梯度下降问题可以更好被研究。此研究虽然看起来很有希望,但实证结果表明,此时的神经网络性能并不比实际的超参数网络更好。无论如何,这仍然为神经网络训练的某些方面提供了理论见解,因此值得研究。 此外,神经切线核可在更宽泛的情况下出现,而无需无限宽极限的条件。
本文简单 ...
评测与数据集索引贴
暂无
#refplus, #refplus li{
padding:0;
margin:0;
list-style:none;
};
document.querySelectorAll(".refplus-num").forEach((ref) => {
let refid = ref.firstChild.href.replace(location.origin+location.pathname,'');
let refel = document.querySelector(refid);
let refnum = refel.dataset.num;
let ref_content = refel.innerText.replace(`[${refnum}]`,'');
tippy(ref, {
content: ref_content,
...