【摘要】 高斯过程通常用作函数、时间序列和空间场的模型,但它们对大型数据集在计算上不可行。着眼于高斯过程加上加性噪声项的数据建模典型设置,本文提出了 Vecchia (1988) 方法的泛化作为高斯过程近似的框架。我们展示的通用 Vecchia 方法包含了现有许多流行的高斯过程近似特例,并且允许在统一框架内比较不同方法。通过有向无环图模型,我们确定了推断所需矩阵的稀疏性,从而对计算特性有了新的认识。基于这些结果,我们提出了一种新的稀疏通用 Vecchia 近似,它确保了大型空间数据集的计算可行性,但可以产生比原始 Vecchia 方法近似精度更好的结果。文中提供了几个理论结果并进行了数值比较。

【原文】 Katzfuss, M. and Guinness, J. (2021) ‘A general framework for Vecchia approximations of Gaussian processes’, Statistical Science, 36(1). Available at: https://doi.org/10.1214/19-STS755.

1 简介

(1)高斯过程的可扩展性问题

高斯过程 (GP) 已成为函数、时间序列和空间场的模型或先验分布的流行选择(例如,Banerjee 等,2004 年 [1];Rasmussen 和 Williams,2006 年 [36];Cressie 和 Wikle,2011 年 [5])。高斯过程的基本特征是有限数量观测的联合分布为多元高斯分布。然而,使用多元高斯分布进行计算会导致观测数量二次方的内存占用和三次方的时间复杂度,因此当观测数量达到数万或更大时,高斯过程推断难以实施,这限制了高斯过程在大型数据集中的应用。

(2)已有解决途径

为了实现计算可行性,统计和机器学习文献中提出了许多方法。这些包括:

此外,本文 第 3 节 中还描述了一些其他方法。

Heaton 等 (2019) 一文回顾和比较上述的多种方法 [21],并对 元克里金法(Guhaniyogi 和 Banerjee,2018 年 [19])、 局部高斯过程近似(Gramacy 和 Apley,2015 年 [17])、 gapfill (Gerber 等,2018 年 [16])、 最近邻高斯过程(Datta 等,2016a [6] )等以算法为主体的方法进行了分析,内容更为全面。

(3)本文方法

本文扩展和研究了 Vecchia 的方法 (Vecchia, 1988) [51],这是最早提出的高斯过程近似方法之一,其产生的精度矩阵具有稀疏的 Cholesky 分解。

Vecchia 的原文基于已观测数据的某种排序,采用 单变量条件分布的乘积 来近似代替精确的高维联合分布,其中每个单变量条件分布仅以排序序列中之前的一小部分观测作为条件。这种近似方法会产生 较低的计算和内存负担,与精确模型之间的 KL 散度分析结果已经证明了其 准确性(Guinness,2018 [20])。此外,该方法中的每一个单变量条件分布都可以独立计算,因此 适用于并行计算

与原始 Vecchia 近似不同,我们在本文中为高斯过程空间数据的建模增加了噪声分量(或块金分量)。事实上,Datta 等 (2016a) [6] 曾提议将 Vecchia 近似方法应用于隐变量高斯过程而不是直接应用于含噪声的可观测变量,不过 Finley 等 (2017) [12] 则指出,该方法 “需要过长的运行时间”。相比 Datta 的方法相比,本文提出了 Vecchia 近似的一个通用版本,它既允许对隐变量条件化,也允许对观测数据条件化。

本文表明,通用 Vecchia 框架可以涵盖目前流行的几种高斯过程近似方法,并允许在统一框架内比较不同方法。我们给出了在有噪声情况下高效计算似然的公式。此外,描述了如何用有向无环图 (DAG) 模型表示通用 Vecchia 框架内的近似值,并且利用两者之间的连接阐释了推断算法中的矩阵稀疏性现象。最终产生了关于计算性质的一些新见解,如解释了 Finley 等 (2017) 指出的隐变量高斯过程 Vecchia 方法的计算挑战 [12]。 基于上述结果,我们还提出了通用 Vecchia 框架的一个特殊实例,并将其称为 稀疏通用 Vecchia 方法 (Sparse General Vecchia, SGV)。该方法在其矩阵表示中提供了有保证的稀疏度水平,但与 Vecchia 的原始方法相比,能够使近似的精度得到显著提高。除了理论结果外,我们还进行了数值研究,探索了通用 Vecchia 框架内的不同选项设置,并比较了新提出的 SGV 方法与现有近似方法。

这篇文章的结构安排如下:

  • 第 2 节中,我们回顾了 Vecchia 近似,介绍了我们的通用 Vecchia 框架,以及与 DAG 之间的连接。
  • 第 3 节中,我们将几个现有高斯过程近似方法描述为通用 Vecchia 框架的特例。
  • 第 4 节中,我们考虑了框架内的推断,包括引入必要的矩阵并研究其稀疏性,并推导了计算复杂度。
  • 第 5 节中,我们描述了新提出的 SGV 近似方法并将其与两种现有方法进行对比。
  • 第 6 节中,包含了有关排序和条件的其他见解。
  • 第 7 节中,提供了数值分析结果及其比较。
  • 第 8 节中,总结并提供了使用 Vecchia 近似方法的指导性意见。
  • 附录 A–F 包含更多详细信息和证明。

本文提出的方法和算法在 R 包 GPvecchia 中实现,网址为 https://github.com/katzfuss-group/GPvecchia

2 通用 Vecchia 方法

2.1 模型设置

{y(s):sD}\{y(\mathbf{s}) : \mathbf{s} \in \mathcal{D} \}y()y(·) 是连续域 D\mathcal{D} 上的空间过程( DRd\mathcal{D} \subset \mathbb{R}^ddN+d \in \mathbb{N}^+ )。我们假设 y()GP(0,K)y(·) \sim \mathcal{GP}(0, K) 是一个均值为零的高斯过程( Gaussian Process, GP ),其协方差函数为 K:D×DRK :\mathcal{D} \times \mathcal{D} \rightarrow \mathbb{R}

协方差函数( KK:除了假设 KK 是参数为 θ\boldsymbol{\theta} 的正定函数之外,我们对 KK 没有任何其他约束。通常,KK 为一个连续的协方差函数,不包含 块金组分,不过我们将在下一段落中考虑它。

均值函数:在实际应用中,y()y(·) 的均值不会为零,但估计和减去均值通常不是太严重的计算问题,因此为简单起见,我们忽略了均值。

位置向量及其索引:设 S\mathcal{S} 是位置向量的向量,即 S=(S1,,S)\mathcal{S} = (\mathcal{S}_1, \ldots, \mathcal{S}_\ell),其中每一个 Si\mathcal{S}_i 都是 D\mathcal{D}rir_i 个位置构成的子位置向量(向量和索引的符号表示方法见 附录 A )。

隐高斯过程向量:令 yi=y(Si)\mathbf{y}_i = y(\mathcal{S}_i) 为位置子向量 Si\mathcal{S}_i 对应的高斯过程子向量,并令所有子向量一起形成总的高斯过程向量 y:=(y1,,y)\mathbf{y} := (\mathbf{y}_1, \ldots, \mathbf{y}_\ell)

观测向量:我们观测到的是 zi=yi+εi\mathbf{z}_i = \mathbf{y}_i + \boldsymbol{\varepsilon}_i,其中噪声项(或块金项) εi\boldsymbol{\varepsilon}_i 独立,且服从 Nri(0,τ2I)\mathcal{N}_{r_i}(\mathbf{0}, \tau^2 \mathbf{I})。这种含噪声观测的假设,在空间统计、高斯过程回归和函数型数据分析中经常被使用,并已被建议用于计算机实验建模(Gramacy 和 Lee,2012 年 [18])。在本文工作中,我们假设已经观测到的向量 zo\mathbf{z}_oz=(z1,,z)\mathbf{z} = (\mathbf{z}_1, \ldots , \mathbf{z}_\ell) 的一个子集,其中索引向量 o(1,,)o \subset (1, \ldots , \ell)

目前,让我们暂时假设协方差参数 θ\boldsymbol{\theta} 和噪声参数 τ2\tau^2 是已知的固定值;关于其推断问题将在 第 4.2 节 中讨论。

注: 附录 A 中给出了向量化符号的表示方法。

2.2 Vecchia 方法的回顾

定义 ho(i):=o(1,,i1)h_o(i) := o \cap (1, \ldots , i − 1)ii 的已观测 “历史” 【注:这里的 ho(i)h_o(i) 有三层含义:一是针对可观测变量;二是在排序序列中处于 ii 之前;三是其值为索引向量】,显然有 ho(1)=h_o(1) = \emptyset。基于此定义,我们将已观测向量 zo\mathbf{z}_o 的联合密度记为:

f(zo)=iof(zizho(i))(1)f(\mathbf{z}_o) = \prod_{i \in o} f(\mathbf{z}_i \mid \mathbf{z}_{h_o(i)}) \tag{1}

计算或使用 式(1) 中的密度需要 O(nz2)\mathcal{O}(n^2_z) 内存和 O(nz3)\mathcal{O}(n^3_z) 计算成本,因此对于大的 nzn_z 不可行( nzn_zzo\mathbf{z}_o 中单次观测的数量,或理解为实数向量 zo\mathbf{z}_o 的长度)。

在最早的 Vecchia 方法文献中 (Vecchia, 1988) [51], 采用 ho(i)h_o(i) 的子向量 g(i)g(i) 来替换 ho(i)h_o(i),其中 g(i)g(i) 由距离第 ii 个观测向量最近的那些观测的索引组成。我们将 g(i)g(i) 称为第 ii条件索引向量,将 zg(i)\mathbf{z}_{g(i)} 称为 zi\mathbf{z}_i条件向量。这形成了 式(1) 中精确联合密度的 Vecchia 近似:

f^(zo)=iof(zizg(i))(2)\widehat{f}(\mathbf{z}_o) = \prod_{i \in o} f (\mathbf{z}_i|\mathbf{z}_{g(i)}) \tag{2}

Vecchia (1988) [51] 当时仅考虑了 zi\mathbf{z}_i 为单一变量的情况(即 zi=zi\mathbf{z}_i = z_i),而 Stein 等 (2004)zi\mathbf{z}_i 推广至向量,并表明最大化 式(2) 对应于求解一组无偏估计方程,据此提出了一种 残差最大似然法 (REML) 来估计协方差参数 θ\boldsymbol{\theta} [47]。Cressie 和 Davidson (1998) [3] 也曾表明 式(2) 隐含了一个具有稀疏精度矩阵的马尔可夫随机场模型 。

2.3 通用 Vecchia 框架

上一节的标准 Vecchia 方法仅应用于观测向量 zo\mathbf{z}_o。在本文中,我们新提出了一种通用 Vecchia 方法,它将 Vecchia 近似应用于由观测向量 zo\mathbf{z}_o 和隐变量向量 y\mathbf{y} 组成的一个组合向量 x=yzo\mathbf{x} = \mathbf{y} \cup \mathbf{z}_o

f^(x)=i=1bf(xixg(i))(3)\widehat{f} (\mathbf{x}) = \prod^{b}_{i=1} f (\mathbf{x}_i|\mathbf{x}_{g(i)}) \tag{3}

其中 bbx\mathbf{x} 中子向量的数量,g(i)h(i)=(1,,i1)g(i) \subset h(i) = (1, \ldots , i − 1)y\mathbf{y}zo\mathbf{z}_o 的元素在 x\mathbf{x} 中交织在一起。

具体来说,采用 附录 A 中的符号表示法,则当 i<ji < j 时,x\mathbf{x} 中的排序被定义为 #(yi,x)<#(yj,x)\#(\mathbf{y}_i, \mathbf{x}) < \#(\mathbf{y}_j, \mathbf{x}),并且 #(zi,x)=#(yi,x)+1\#(\mathbf{z}_i, \mathbf{x}) = \#(\mathbf{y}_i, \mathbf{x}) + 1。换句话说,yi\mathbf{y}_i 向量保持它们在 x\mathbf{x} 中的相对排序,并且当 ioi \in ozi\mathbf{z}_i 直接插入到 yi\mathbf{y}_i 后面。

由此,式(3) 中的通用 Vecchia 近似可以被分解为:

f^(x)=(i=1f(yiyqy(i),zqz(i)))(iof(ziyi))(4)\widehat{f} (\mathbf{x}) = \left(\prod^{\ell}_{i=1} f (\mathbf{y}_i | \mathbf{y}_{q_y(i)}, \mathbf{z}_{q_z(i)} ) \right) \left( \prod_{i \in o} f (\mathbf{z}_i | \mathbf{y}_i) \right) \tag{4}

对于 yi\mathbf{y}_i 的条件向量:如果索引 jqy(i)j \in q_y(i) 则表示 yi\mathbf{y}_iyj\mathbf{y}_j 为条件,如果索引 jqz(i)j \in q_z(i) 则表示 yi\mathbf{y}_izj\mathbf{z}_j 为条件。以 yj\mathbf{y}_j 为条件而不是以 zj\mathbf{z}_j 为条件可能更准确,但计算成本更高(我们将在第 5 节探讨这种权衡)。出于类似原因,将 yj\mathbf{y}_jzj\mathbf{z}_j 同时作为 yi\mathbf{y}_i 的条件没有任何好处,所以总是取 qy(i)qz(i)=q_y(i) \cap q_z(i) = \emptyset。我们称 q(i)=(qy(i),qz(i))q(i) = (q_y(i), q_z(i)) 为条件索引向量。注意,当 joj \notin o 时,强制假设 jqz(i)j \in q_z(i) 等价于从 q(i)q(i) 中移除索引 jj

对于 zi\mathbf{z}_i 的条件向量:我们总是选择 yi\mathbf{y}_i 作为 zi\mathbf{z}_i 的条件向量,因为 zi\mathbf{z}_i 被定义为条件独立于给定 yi\mathbf{y}_i 时的其他所有向量。

通常,我们感兴趣的是计算 f(zo)f(\mathbf{z}_o) 的近似值,这涉及对 式(3)式(4) 中的近似联合密度关于隐变量 y\mathbf{y} 作积分:

f^(zo)=f^(x)dy(5)\widehat{f}(\mathbf{z}_o) = \int \widehat{f}(\mathbf{x}) d \mathbf{y} \tag{5}

如果条件向量等于历史向量(即对于所有 ii,有 g(i)=h(i)g(i) = h(i) ),则 式(5) 将恢复 式(1) 的精确分布 f(zo)f(\mathbf{z}_o)。从这个意义上讲,随着条件向量变大,通用 Vecchia 近似会收敛到真值。但较大的条件向量会抵消了计算优势,因此 Vecchia 方法总是对小的条件向量更感兴趣。

总体而言,f(x)f(\mathbf{x}) 的通用 Vecchia 近似 f^(x)\widehat{f}(\mathbf{x}) 以及隐含的 f(zo)f(\mathbf{z}_o) 的近似 f^(zo)\widehat{f}(\mathbf{z}_o) 都由以下因素决定:

C1: 位置向量 S\mathcal{S}。其中位置的数量为 nyn_yS\mathcal{S} 通常是已观测位置的超集,本文的默认选择是将 S\mathcal{S} 设置为等于已观测位置。

C2: 位置向量 S\mathcal{S} 的划分方案。将 S\mathcal{S} 划分为 \ell 个位置子向量( ny\ell \leq n_y)。

C3: 位置向量的排序方式。即 S=(S1,,S)\mathcal{S} = (\mathcal{S}_1, \ldots , S_\ell)

C4: 条件索引向量 q(i)q(i)。对于每个 iiyi\mathbf{y}_i 的条件索引向量 q(i)(1,,i1)q(i) \subset (1, \ldots , i − 1)

C5: 条件索引向量 q(i)q(i) 的隐/显划分方案。 对于每个 ii,将 q(i)q(i) 划分为 qy(i)q_y(i)qz(i)q_z(i);以便对于每个 jq(i)j \in q(i)yi\mathbf{y}_i 能够确定应该以 yj\mathbf{y}_j 还是 zj\mathbf{z}_j 为条件。

本文的主要焦点是 C5 的条件索引向量划分方案,它将在第 5 节中进行了讨论。在第 6 节中,我们提供了对 C2-C4 的一些见解,在第 7 节中,我们从数值上探讨了 C3-C5

2.4 与有向无环图的联系

Vecchia 方法和有向无环图( DAG)之间存在很强的联系(Datta 等,2016a [6])。附录 B 中提供了 DAG 的简要回顾。

式(3) 中的 Vecchia 近似公式中隐含的条件独立结构,可以用 DAG 很好地表示。如果将 x1,,xb\mathbf{x}_1, \ldots , \mathbf{x}_b 视为 DAG 中的顶点,当且仅当 jg(i)j \in g(i) 时,存在 xj\mathbf{x}_jxi\mathbf{x}_i 之间的路径,并被表示为 xjxi\mathbf{x}_j \rightarrow \mathbf{x}_i,则很容易看出,xg(i)\mathbf{x}_{g(i)} 是由 xi\mathbf{x}_i 的所有父节点的集合形成的向量。

请注意,Vecchia 近似只允许以排序序列中之前的变量为条件,所以当 i>ji > j 时,总有 xi↛xj\mathbf{x}_i \not \to \mathbf{x}_j,即不存在 xi\mathbf{x}_ixj\mathbf{x}_j 的路径。DAG 的部分实例如 图 1 所示。在 第 4.4 节中,我们将利用 Vecchia 方法和 DAG 之间的这种联系来研究推断所需的矩阵稀疏性问题。

3 现有方法作为特例

许多现有的高斯过程近似方法都符合 第 2.3 节 提出的通用框架,可以被视为该框架的特例,并对应于 C1-C5 中的某些特定选择。我们在本节举一些例子,图 1 对部分例子进行了说明。

3.1 标准 Vecchia 和扩展

Vecchia 的原始近似方法 (Vecchia, 1988) 采用单件向量 zi=zi\mathbf{z}_i = z_i ( 即 ri=1r_i = 1 ),并按空间坐标对位置进行排序。所有单件向量都仅条件依赖于已观测数据,而不是隐高斯过程变量。也就是说,在通用框架中,qz(i)=q(i)q_z(i) = q(i)qy(i)=q_y(i) = \emptyseto=(1,,)o = (1, \ldots , \ell)。使用 式(5),这产生如下近似:

f^(z)=i=1f(ziyi)f(yizq(i))dy=i=1f(ziyi,zq(i))f(yizq(i))dyi=i=1f(zizq(i))\widehat{f}(z) = \int \prod^{\ell}_{i=1} f (\mathbf{z}_i | \mathbf{y}_i) f (\mathbf{y}_i | \mathbf{z}_{q(i)}) d \mathbf{y} = \prod^{\ell}_{i=1} \int f(\mathbf{z}_i | \mathbf{y}_i, \mathbf{z}_{q(i)}) f(\mathbf{y}_i | \mathbf{z}_{q(i)}) d \mathbf{y}_i = \prod^{\ell}_{i=1} f(\mathbf{z}_i | \mathbf{z}_{q(i)})

其中 f(ziyi)=f(ziyi,zq(i))f (\mathbf{z}_i | \mathbf{y}_i) = f (\mathbf{z}_i | \mathbf{y}_i, \mathbf{z}_{q(i)}),因为 zi\mathbf{z}_i 在给定 yi\mathbf{y}_i 的条件下,独立于 zq(i)\mathbf{z}_{q(i)}

Stein 等 (2004) [47] 建议在条件向量中包含一些近距离和远距离的观测,并对观测数据进行分组(即 ri>1r_i > 1 )以获得计算优势。

Guinness (2018) [20] 考虑了自适应的分组方案,发现坐标排序以外的排序方案可以提高近似精度。

Vecchia 和 Stein 等关注的是似然的近似高效计算问题(主要用于参数推断任务),而 Guinness (2018) 则通过对条件向量的模拟(采样)实现了空间预测任务。

Sun 和 Stein (2016) [48] 以及 Huang 和 Sun (2018) [23] 提出了进一步的扩展。

Zhang (2012) 提供了一些渐近性方面的讨论 [54]

3.2 最近邻高斯过程(NNGP)

最近邻高斯过程 NNGP (Datta, 2016a,b,c) [6][7][8] 考虑了显式数据模型(例如此处假设的加性高斯噪声),并且仅隐高斯过程变量为条件,即 qy(i)=q(i)q_y(i) = q(i)qz(i)=q_z(i) =\emptyset

通过设置 ri=1r_i = 1, S=(S1,,Sy+z)\mathcal{S} = (\mathcal{S}_1, \ldots , S_{\ell_y + \ell_z} ), o=(y+1,,y+z)o = (\ell_y + 1, \ldots , \ell_y + \ell_z),该方法定义了一个高斯过程, 并对所有 ii 强制 q(i)(1,,y)q(i) \subset (1, \ldots , \ell_y) 。这意味着已观测位置处的变量只能以 “结(knot)集合” (S1,,Sy)(\mathcal{S}_1, \ldots , \mathcal{S}_{\ell_y}) 中的变量为条件。

3.3 独立块

当每个 ii 的条件索引向量为空( 即 q(i)=q(i) = \emptyset )时,各块之间相互独立,有:

f^(z)=i=1f(ziyi)f(yi)dy=i=1f(ziyi)f(yi)dy=i=1f(zi)\widehat{f}(z) = \int \prod^{\ell}_{i=1} f (\mathbf{z}_i | \mathbf{y}_i) f(\mathbf{y}_i) d \mathbf{y} = \prod^{\ell}_{i=1} \int f(\mathbf{z}_i | \mathbf{y}_i) f(\mathbf{y}_i) d \mathbf{y} = \prod^{\ell}_{i=1} f(\mathbf{z}_i)

该方法视 \ell 个子向量 z1,,z\mathbf{z}_1, \ldots , \mathbf{z}_\ell 之间相互独立,并假设 o=(1,,)o = (1, \ldots , \ell)。Stein (2014) [46] 表明,当每个子向量(或块)对应于空间中的一个连续子区域时,这种近似作为似然的替代物可能非常有竞争力。该方法计算成本非常低,因为乘积中的每个项都会产生很小的计算成本并且可以并行化。

由于存在特殊的独立性假设,此方法的一个缺点在于难以表征预测中的联合不确定性。

3.4 m 阶隐自回归过程

mm 阶隐自回归过程也被称为状态空间模型,在时间序列设置中很常见。它们仅以某种排序中最新的 mm 组隐变量为条件,即 q(i)=qy(i)=(im,,i1)q(i) = q_y(i) = (i − m, \ldots , i − 1)。此类模型的推断通常使用卡尔曼滤波器和平滑器进行(Kalman,1960 年[25];Rauch 等,1965 年 [37])。

3.5 改进的预测过程(MPP)

改进的预测过程(MPP)将 S1\mathcal{S}_1 定义为 “结(knot)位置” 构成的向量 (Finley 等, 2009) [13] ,典型情况下 1o1 \notin o,并且对于所有 i>1i > 1,有 ri=1r_i = 1q(i)=qy(i)=1q(i) = q_y(i) = 1。这意味着所有变量都以相同的 y1\mathbf{y}_1 做为条件向量,并假定为条件独立。

3.6 全尺度近似(FSA)

与 MPP 一样,全尺度近似(Snelson 和 Ghahramani,2007 年 [44];Sang 等,2011 年 [42])指定一个公共条件向量 y1\mathbf{y}_1,对所有的 i>1i > 1,令 q(i)=qy(i)=1q(i) = q_y(i) = 1。与 MPP 方法的不同之处在于,FSA 允许 ri>1r_i > 1 ,并按照 第 3.3 节 中的独立块方式,依据空间区域将所有剩余变量分组。

对于通用 Vecchia 而言,当 i>1i > 1 时,如果 q(i)=qy(i)=1q(i) = q_y(i) = 1,则有 f^(y)=f(y1)i=2f(yiy1)\widehat{f}(\mathbf{y}) = f(\mathbf{y}_1) \prod^{\ell}_{i=2} f(\mathbf{y}_i | \mathbf{y}_1);因此,对于 i>1i > 1,有 f^(y1)=f(y1)\widehat{f}(\mathbf{y}_1) = f(\mathbf{y}_1), f^(yi)=f(y1)f(yiy1)dy1=f(yi)\widehat{f}(\mathbf{y}_i) = \int f(\mathbf{y}_1) f(\mathbf{y}_i | \mathbf{y}_1) d \mathbf{y}_1 = f (\mathbf{y}_i) (即边缘分布是精确的),并且 f^(yi,yj)=f(y1)f(yiy1)f(yjy1)dy1\widehat{f}(\mathbf{y}_i , \mathbf{y}_j) = \int f(\mathbf{y}_1) f(\mathbf{y}_i | \mathbf{y}_1) f(\mathbf{y}_j | \mathbf{y}_1) d \mathbf{y}_1

因此,对于 FSA 来说,var^(yi)=var(yi)\widehat{var}(\mathbf{y}_i) = \text{var}(\mathbf{y}_i),并且对于 ij>1i \neq j > 1,我们有

cov^(yi,yj)=yiyjf(y1)f(yiy1)f(yjy1)dyidyjdy1=(yif(yiy1)dyi)(yjf(yjy1))dyj)f(y1)dy1=cov(E(yiy1),E(yjy1))\begin{align*} \widehat{\text{cov}}(\mathbf{y}_i, \mathbf{y}_j) &= \int \int \int \mathbf{y}_i \mathbf{y}^{\prime}_j f(\mathbf{y}_1) f(\mathbf{y}_i | \mathbf{y}_1) f(\mathbf{y}_j | \mathbf{y}_1) d \mathbf{y}_i d \mathbf{y}_j d \mathbf{y}_1\\ &= \int (\int \mathbf{y}_i f(\mathbf{y}_i | \mathbf{y}_1) d \mathbf{y}_i) (\int \mathbf{y}^{\prime}_j f(\mathbf{y}_j | \mathbf{y}_1)) d \mathbf{y}_j) f(\mathbf{y}_1) d \mathbf{y}_1\\ &= \text{cov} ( E(\mathbf{y}_i | \mathbf{y}_1), E(\mathbf{y}_j | \mathbf{y}_1)) \end{align*}

其中 E(yiy1)E(\mathbf{y}_i|\mathbf{y}_1) 是当 “结(knot)” 为 S1\mathcal{S}_1 时,在 Si\mathcal{S}_i 处估值的的预测过程。

最近提出的平滑 FSA (Zhang 等, 2018) [53],也可以看作是通用 Vecchia 的特例,其条件向量中除了 “结向量” y1\mathbf{y}_1 外,增加了一些附近的块。

3.7 多分辨率近似(MRA)

多分辨率近似 (Katzfuss, 2017) 是 FSA 的迭代扩展,其中域 D\mathcal{D} 被迭代地划分为 JJ 个子区域,我们在每个生成的子区域中选择 rir_i 个变量,因此有 SiDi\mathcal{S}_i \subset \mathcal{D}_i

例如,如果 J=4J = 4,令 D1=D\mathcal{D}_1 =\mathcal{D},则 {D2,,D5}\{\mathcal{D}_2, \ldots ,\mathcal{D}_5\}D1\mathcal{D}_1 的一个划分, {D6,,D9}\{\mathcal{D}_6, \ldots ,\mathcal{D}_9\}D2\mathcal{D}_2 的一个划分, {D10,,D13}\{\mathcal{D}_{10}, \ldots ,\mathcal{D}_{13}\}D3\mathcal{D}_3 的一个划分,依此类推。

在通用框架中,该方法实质上令 q(i)={j:DiDj}q(i) = \{j :\mathcal{D}_i \subset \mathcal{D}_j\}qy(i)=q(i)q_y(i) = q(i),因此,条件向量由区域中相关位置处的隐变量层次地构成。

上述 FSA 和 MPP 都可被视为多分辨率近似的特例。这三种方法都允许在未观测的位置处存在隐变量,例如 S\mathcal{S} 不同于已观测位置的集合,在通用框架中,这可以通过令 o(1,,)o \subset (1, \ldots , \ell) 来处理。

3.8 相关方法:组合似然(CL)

组合似然是一种流行的快速高斯过程推断方法。Varin 等 (2011) [50] 将组合似然方法分类为边缘组合似然法或条件组合似然法。

边缘组合似然的一种常见方法是成对块,它将似然近似为 f^(z)=f(zi,zj)\widehat{f}(z) = \prod f(\mathbf{z}_i, \mathbf{z}_j),其中乘积通常在邻接块构成的所有对 (i,j)(i, j) 上进行(例如,Eidsvik 等, 2014 [10])。

条件组合似然采用类似 式(2) 的近似形式,只是考虑了更一般的条件索引向量 g(i)(1,,i1,i+1,,)g(i) \subset (1, \ldots , i − 1, i + 1, \ldots , \ell)

与 Vecchia 方法相比,基于组合似然的推断通常无法预期结果会随着成对的数量增加(或条件变量的数量增加)而变得更为准确,并且通常无法保证 f^(z)\widehat{f}(\mathbf{z}) 是一个有效的联合密度,这导致基于组合似然的贝叶斯推断十分困难(例如,Shaby,2014 [43])。虽然 第 3.1 节 回顾的标准 Vecchia 方法及其扩展可以被视为条件组合似然的特例,但 式(3) 中的通用 Vecchia 框架并不是组合似然方法,因为它不是单独在 z\mathbf{z} 上定义的,而是在 x\mathbf{x} 上定义的,因此通常不能写成 式(2)的形式。

可以在 附录 D 中找到 Vecchia 和组合似然方法进行参数估计的比较模拟研究。

4 推断与计算

在本节中,我们将描述通用 Vecchia 近似的矩阵表示,以便加速推断任务。此外,我们将考察所涉及矩阵的稀疏性,并推导出相应的计算复杂度。

4.1 通用 Vecchia 的矩阵表示

对于 x\mathbf{x} 的任意两个子向量 xi\mathbf{x}_ixj\mathbf{x}_j,我们记 C(xi,xj)=E(xixj)C(\mathbf{x}_i, \mathbf{x}_j) = E(\mathbf{x}_i \mathbf{x}^{\prime}_j)xi\mathbf{x}_ixj\mathbf{x}_j 之间的互协方差。对于 iji \neq j,有 C(yi,yj)=C(zi,yj)=K(Si,Sj)C(\mathbf{y}_i, \mathbf{y}_j) = C(\mathbf{z}_i, \mathbf{y}_j) = K(\mathcal{S}_i, \mathcal{S}_j)C(zi,zj)=K(Si,Sj)C(\mathbf{z}_i, \mathbf{z}_j) = K(\mathcal{S}_i, \mathcal{S}_j)C(zi,zi)=K(Si,Si)+τ2IriC(\mathbf{z}_i, \mathbf{z}_i) = K(\mathcal{S}_i, \mathcal{S}_i) + \tau^2 \mathbf{I}_{r_i}

基于高斯假设,我们可以将 式(3) 中的通用 Vecchia 近似公式改写为:

f^(x)=i=1bf(xixg(i))=i=1bN(xi;Bixg(i),Di)(6)\widehat{f}(\mathbf{x}) = \prod^{b}_{i=1} f(\mathbf{x}_i | \mathbf{x}_{g(i)}) = \prod^{b}_{i=1} \mathcal{N}(\mathbf{x}_i ; \mathbf{B}_i \mathbf{x}_{g(i)}, \mathbf{D}_i) \tag{6}

其中 Bi=C(xi,xg(i))C(xg(i),xg(i))1\mathbf{B}_i = C(\mathbf{x}_i, \mathbf{x}_{g(i)}) C(\mathbf{x}_{g(i)}, \mathbf{x}_{g(i)})^{−1},且 Di=C(xi,xi)BiC(xg(i),xi)\mathbf{D}_i = C(\mathbf{x}_i, \mathbf{x}_i) − \mathbf{B}_i C(\mathbf{x}_{g(i)}, \mathbf{x}_i)。我们将 Bi\mathbf{B}_i 视为一个块矩阵,所以符号 (Bi)#(j,g(i))(\mathbf{B}_i)_{\#(j,g(i))} 表示:当 jg(i)j \in g(i) 时向量 xj\mathbf{x}_j 对应的块 Bi\mathbf{B}_i

对于任何对称的正定矩阵 A\mathbf{A},令 chol(A)\text{chol}(\mathbf{A}) 表示 A\mathbf{A} 的下三角 Cholesky 分解,并令 P\mathbf{P} 为一个置换矩阵,PA\mathbf{PA} 以逆序记录矩阵 A\mathbf{A} 的行。我们进而称 rchol(A):=P(chol(PAP))P\text{rchol}(\mathbf{A}) := \mathbf{P}(\text{chol}( \mathbf{PAP})) \mathbf{P}A\mathbf{A}逆序 Cholesky 分解(从表达式来看,rchol\text{rchol} 表示对行-列均逆序后的 A\mathbf{A} 的下三角 Cholesky 因子进行再一次的行-列逆序 )。在此基础上,下述命题是多元高斯分布的自然结果:

【命题 1 】 式 (6) 中的密度也是一个多元高斯,即 f^(x)=Nn(x0,C^)\widehat{f}(\mathbf{x}) = \mathcal{N}_n(\mathbf{x} ;\mathbf{0},\widehat{\mathbf{C}})

其中协方差矩阵 C^=(UU)1\widehat{\mathbf{C}} = (\mathbf{UU^{\prime}})^{−1}U\mathbf{U} 是一个 b×bb \times b 分块的稀疏上三角矩阵,其第 (j,i)(j, i) 个块为:

Uji={Di1/2,i=j(Bi)#(j,g(i))Di1/2,jg(i)0,otherwise(7)\mathbf{U}_{ji} = \begin{cases} & \mathbf{D}^{-1/2}_{i}, &i=j \\ & - (\mathbf{B}_i)^{\prime}_{\#(j,g(i))} \mathbf{D}^{-1/2}_{i}, &j \in g(i) \\ & \mathbf{0}, &\text{otherwise} \end{cases} \tag{7}

并且 Di1=Di1/2(Di1/2)\mathbf{D}_i^{-1}=\mathbf{D}_i^{-1 / 2} (\mathbf{D}_i^{-1 / 2})^{\prime}。可以看出,U\mathbf{U}C^1\widehat{\mathbf{C}}^{-1}逆序 Cholesky 分解,即 U=rchol(C^1)\mathbf{U}=\operatorname{rchol}(\widehat{\mathbf{C}}^{-1})

所有证明都可以在 附录 F 中找到。

4.2 近似似然的计算

式(5) 所示,对通用 Vecchia 近似 f^(x)\widehat{f}(\mathbf{x}) 关于隐变量 y\mathbf{y} 做积分得到的 f^(zo)\widehat{f}(\mathbf{z}_o),表示已观测向量 zo\mathbf{z}_o 的分布,我们称之为 通用 Vecchia 似然。如果 nyn_y 较大,则关于 nyn_y 维向量 y\mathbf{y} 做数值积分具有非常大的挑战性(参见 Finley 等,2017 [12])。因此,我们在这里给出了密度积分的解析形式:

【命题 2 】 通用 Vecchia 似然可以计算为:

2logf^(zo)=i=1blogDi+2i=1logVii+z~z~(V1UYz~)(V1UYz~)+nzlog(2π)(8)−2 \log \widehat{f}(\mathbf{z}_o) =\sum_{i=1}^{b} \log | \mathbf{D}_i| + 2 \sum_{i=1}^{\ell } \log | \mathbf{V}_{ii}| + \tilde{\mathbf{z}}^{\prime} \tilde{\mathbf{z}} − (\mathbf{V^{−1}U_Y \tilde{z}})^{\prime}( \mathbf{V^{−1}U_Y\tilde{z}}) + n_z \log(2π) \tag{8}

式中

V:=rchol(W) 且 W:=UYUYz~:=UZzoUY:=U#(y,x)UZ:=U#(zo,x)\begin{align*} &\mathbf{V} := \text{rchol}(\mathbf{W}) \text{ 且 } \mathbf{W} := \mathbf{U}_Y \mathbf{U}^{\prime}_Y\\ &\tilde{\mathbf{z}} := \mathbf{U}^{\prime}_Z \mathbf{z}_o\\ &\mathbf{U}_Y := \mathbf{U}_{\#(\mathbf{y,x}) \bullet}\\ &\mathbf{U}_Z := \mathbf{U}_{\#(\mathbf{z}_o,\mathbf{x}) \bullet } \end{align*}

UY\mathbf{U}_YUZ\mathbf{U}_Z 分别由矩阵 U\mathbf{U} 中对应于 y\mathbf{y}zo\mathbf{z}_o 的行组成。

请注意,类似于【命题 1 】 中 U=rchol(C^1)\mathbf{U} = \text{rchol}(\widehat{\mathbf{C}}^{−1}),【命题 2 】将 V\mathbf{V} 计算为 W\mathbf{W} 的逆序 Cholesky 分解,即 V=rchol(W)\mathbf{V} = \text{rchol}(\mathbf{W})。这允许我们在下面的【命题 3 】中推导出 V\mathbf{V} 的稀疏结构,确保通用 Vecchia 方法的某些配置具有低计算复杂度。 这也意味着,我们可以针对参数 θ\boldsymbol{\theta}τ2\tau^2 的任意给定值,快速计算似然 f^(zo)\widehat{f}(\mathbf{z}_o)( 即在 y\mathbf{y} 上积分 ),从而使得大规模数据集也能进行基于似然的参数推断。

4.3 参数的推断

我们的框架允许对参数进行频率派推断和贝叶斯推断:

  • 频率派方法:可以采用最大似然法,通过寻找使 f^(zo)\widehat{f}(\mathbf{z}_o) 最大化的参数值来进行频率推断。附录 D 详细介绍了一个模拟,就空间变程参数的推断问题,比较了 SGV 方法、精确似然方法和两种组合似然法。结果表明 SGV 给出了与精确最大似然估计方法非常相似的结果。
  • 贝叶斯方法附录 E 展示了如何使用 SGV 似然进行贝叶斯推断。该示例同时考虑了数值积分后验和 Metropolis-Hastings 算法,并最终得到 y()y(·) 在未观测位置的后验预测分布。

无论采用何种推断范式,我们的模型都可以被视为高斯过程模型的近似,或者本身就可以被视为一个有效的概率模型(见 式(6))。从后者来看,我们的所有推断都是精确的。当条件向量的数量趋近于 m=n1m = n−1 时,Vecchia 近似本身引起的误差将接近消失;当 mm 取较小值时,我们对其误差进行了数值检验,详情参见 第 7 节

4.4 预测

我们可以计算无误差高斯过程向量的后验分布(由 yzN(μ,W1)\mathbf{y \mid z} \sim \mathcal{N}(\boldsymbol{μ}, \mathbf{W}^{−1}) 给出),其中 μ:=W1Uyz~\boldsymbol{μ} := − \mathbf{W}^{-1} \mathbf{U}_y \tilde{\mathbf{z}}。不过,这需要考虑一些复杂的问题,例如 “如何保证对该分布摘要数据的快速计算?”、 “在已观测位置和未观测位置的预测中,哪种排序和条件策略可以很好地工作?”。

我们建议读者参考 Katzfuss 等 (2018) [29] 中将通用 Vecchia 框架扩展到高斯过程预测的详细信息。

4.5 稀疏性分析

在下面的命题中,我们使用 Vecchia 方法和 DAG 之间的联系(参见 第 2.4 节附录 B)来分析 式(7) 中矩阵 U\mathbf{U}W\mathbf{W}V\mathbf{V} 的稀疏性,这些都是推断过程必须使用的计算。

【命题 3 】

U\mathbf{U} 的稀疏性: 如果 iji \neq j 且不存在 xj\mathbf{x}_jxi\mathbf{x}_i 的路径( 即 xj↛xi\mathbf{x}_j \not \to \mathbf{x}_i ),则 Uji=0\mathbf{U}_{ji} = 0

W\mathbf{W} 的稀疏性:如果 iji \neq jxj\mathbf{x}_jxi\mathbf{x}_i 之间双向都不存在路径( 即 yj↛yi\mathbf{y}_j \not \to \mathbf{y}_iyi↛yj\mathbf{y}_i \not \to \mathbf{y}_j ), 则 Wji=0\mathbf{W}_{ji} = 0;并且不存在任何 k>max(i,j)k > \max(i, j),使得 xi\mathbf{x}_ixk\mathbf{x}_kxj\mathbf{x}_jxk\mathbf{x}_k 之间都存在路径 (即 yiyk\mathbf{y}_i \rightarrow \mathbf{y}_kyjyk\mathbf{y}_j \rightarrow \mathbf{y}_k )。

V\mathbf{V} 的稀疏性:如果 j>ij > i,则 Vji=0\mathbf{V}_{ji} = 0;如果 j<ij < i,对于任意 k>ik > iyk\mathbf{y}_k 至少有一个被观测到的子孙),在子图 {yi,yj}{yk}\{\mathbf{y}_i, \mathbf{y}_j\} \cup \{\mathbf{y}_k\} 上,不存在 yi\mathbf{y}_iyj\mathbf{y}_j 之间的路径( 即 yj↛yi\mathbf{y}_j \not \to \mathbf{y}_iyi↛yj\mathbf{y}_i \not \to \mathbf{y}_j ),则 Vji=0\mathbf{V}_{ji} = 0

也就是说:

  • U\mathbf{U}V\mathbf{V} 是上三角矩阵,其稀疏性取决于 Vecchia 的具体指定。
  • j<ij < i 时,W\mathbf{W} 的第 (j,i)(j, i) 个块不仅在 jqy(i)j \in q_y(i) 时非零,而且当 yi\mathbf{y}_iyj\mathbf{y}_j 同时出现在条件向量中时(即对于某些 kk, i,jqy(k)i, j \in q_y(k) )也非零。请注意,此稀疏结构对应于所谓道德图中的相邻顶点(例如,Lauritzen,1996 [31],第 2.1.1 节)。
  • 矩阵 V\mathbf{V} 通常至少与 W\mathbf{W} 一样稠密(假设所有或大部分 yk\mathbf{y}_k 都有可观测的子孙),因为它在与 W\mathbf{W} 相同的非零顶点基础上,额外增加了由更复杂路径引入的非零顶点。

图 1 显示了一些 DAG 实例及其对应的稀疏 U\mathbf{U}V\mathbf{V}

Fig01

图 1:通用 Vecchia 方法(见第 3 节)的玩具数据集示例,其中 =7\ell = 7o=(1,,7)o = (1,\ldots , 7)。第一列:DAG(参见第 2.4 节)。第二列:U\mathbf{U} 的稀疏性(对应于灰色 zi\mathbf{z}_i 的元素)。第三列:V\mathbf{V} 的稀疏性(第 4.4 节)。计算复杂度取决于 U\mathbf{U}V\mathbf{V} 的每列中非对角线非零值的数量(第 4.5 节)。对于除隐变量 Vecchia 之外的所有方法,这些数字最多为 m=2m = 2。对于隐变量 Vecchia,突出显示了两个非零生成路径和由此产生的非零值(请参阅第 5 节)。

4.6 计算复杂度分析

回想一下,x\mathbf{x}y=(y1,,y)\mathbf{y} = (\mathbf{y}_1, \ldots , \mathbf{y}_\ell)zo\mathbf{z}_o 组成,其中 z=(z1,,z)\mathbf{z} = (\mathbf{z}_1, \ldots , \mathbf{z}_\ell)yi\mathbf{y}_izi\mathbf{z}_i 的长度均为 rir_i。令 nnx\mathbf{x} 中单一变量的总数。为了简化稀疏性和计算复杂度的计算,假设 o=(1,,)o = (1, \ldots , \ell),所有 rir_i 都具有相同的阶数 rr(因此 nbr=2rn \approx br = 2\ell r ),并且假设所有条件向量均由至多 mm 个(大小为 rr 的)子集组成,即 g(i)m|g(i)| \leq m

U\mathbf{U} 的计算复杂度:由 式(7) 不难看出,U\mathbf{U}O(bmr2))=O(nmr)\mathcal{O}(b \cdot(mr^2))=\mathcal{O}(nmr) 个非零元素,计算时间为 O(b(m3r3))=O(nm3r2)\mathcal{O}(b \cdot (m^3r^3))=\mathcal{O}(nm^3r^2)。请注意,此时间复杂度公式中,rr 的幂次低于 mm 的幂次,乘积 mrmr 构成条件向量的总长度。

W\mathbf{W} 的计算复杂度:为了计算 式 (8) 中的似然,我们还需要计算 W=UYUY\mathbf{W = U_Y U^{\prime}_Y} 并找到其逆序 Cholesky 分解 V=rchol(W)\mathbf{V} = \text{rchol}(\mathbf{W})。每个条件向量的大小为 g(i)m|g(i)| \leq m,因此最多包含 m(m1)/2m(m − 1)/2 对元素。根据【命题 3 】,W\mathbf{W} 至多有 O(m2)\mathcal{O}(\ell m^2) 个非零块。鉴于每个块的大小为 r×rr \times r 并且 =O(n/r)\ell = \mathcal{O}(n/r),因此 W\mathbf{W} 最多有 O(nrm2)\mathcal{O}(nrm^2) 个非零元素。

V\mathbf{V} 的计算复杂度:根据矩阵分解相关只是,获得下三角 Cholesky 分解的时间复杂度的数量级,约为该分解中每列非零元素数量的平方和(例如,Toledo,2007 [49],Thm. 2.2)。可以很容易验证,此结论同样适用于逆序 Cholesky 分解 V\mathbf{V}。因此,对于任意指定的 Vecchia 近似,推断的时间复杂度原则上可以根据相应的 DAG 使用【命题 3 】来确定。我们将在下一节中给出示例。

5 稀疏通用 Vecchia 近似

我们现在固定第 2.3 节中的选项 C1–C4,重点研究选项 C5;也就是说,假定分组、排序和条件索引向量 q(1),,q()q(1), \ldots , q(\ell) 均固定。我们考虑在隐变量条件与可观测变量条件 (C5) 方面存在区别的三种方法: 标准 Vecchia第 3.1 节)和 隐变量 Vecchia(在第 3.2 节的 NNGP 中使用),以及一种新颖的 稀疏通用 Vecchia (SGV) 方法:

  • 标准 Vecchiafs^\widehat{f_s} ):q(i)=qz(i)q(i) = q_z(i),仅以已观测向量 zj\mathbf{z}_j 为条件。

  • 隐变量 Vecchiafl^\widehat{f_l} ):q(i)=qy(i)q(i) = q_y(i),仅以隐向量 yj\mathbf{y}_j 为条件。

  • 稀疏通用 Vecchiafg^\widehat{f_g} ):对于每个 ii,将 q(i)q(i) 划分为 qy(i)q_y(i)qz(i)q_z(i),使得如果 jqy(k)j \in q_y(k),则 jjkkj<kj < k ) 只能都在 qy(i)q_y(i) 中。

根据 Lauritzen (1996 [31], Sect. 2.1.1),SGV 能够确保相应 DAG 形成完美图。对于相同的条件索引向量,可能存在不同版本的 SGV(事实上,标准 Vecchia 是 SGV 的一个特例)。

在整篇文章中,我们考虑以下尝试最大化 SGV 中的隐变量条件索引向量长度的划分策略:

  • 首先,在 q(i)q(i) 中找出隐变量条件索引向量与 q(i)q(i) 重叠最多的索引 kik_i,即 ki=argmaxjq(i)qy(j)q(i)k_i = \arg \max_{j\in q(i)} |q_y(j) \cap q(i)|。如果存在多个结果,则选择 Si\mathcal{S}_iSki\mathcal{S}_{k_i} 之间空间距离最短的那个 kik_i
  • 然后,设置 qy(i)=(ki)(qy(ki)q(i))q_y(i) = (k_i) \cup (q_y(k_i) \cap q(i));此时 q(i)q(i) 中的其余索引对应于可观测条件索引向量:qz(i)=q(i)qy(i)q_z(i) = q(i) \setminus q_y(i)

这三种方法在 图 1=7\ell = 7 的玩具示例中进行了说明。对于所有三种方法,我们具有相同的 q(1),,q()q(1), \ldots , q(\ell),其中 q(2)=(1),q(3)=(1,2),q(4)=(1,3),q(5)=(2,4),q(2) = (1), q(3) = (1, 2), q(4) = (1, 3), q(5) = (2, 4), \ldots。与隐变量 Vecchia 一样,SGV 使用 qy(2)=(1),qy(3)=(1,2),qy(4)=(1,3)q_y(2) = (1), q_y(3) = (1, 2),q_y(4) = (1, 3),由于例如 1qy(3)1 \in q_y(3),所以 qy(4)q_y(4) 可以同时包含 1133。但,2qy(4)2 \notin q_y(4),所以 SGV 不允许 2qy(5)2 \in q_y(5)4qy(5)4 \in q_y(5) 同时出现,因此设置 qy(5)=(4)q_y(5) = (4)qz(5)=(2)q_z(5) = (2)

我们现在可以对上述三种 f(x)f(\mathbf{x}) 近似的准确性进行排序。

【命题 4 】 Kullback-Leibler (KL) 散度的以下排序成立:

KL(f(x)fl^(x))KL(f(x)fg^(x))KL(f(x)fs^(x))\mathbb{KL}\left(f(\mathbf{x}) \| \widehat{f_l}(\mathbf{x})\right) \leq \mathbb{KL} \left(f(\mathbf{x}) \| \widehat{f_g}(\mathbf{x}) \right) \leq \mathbb{KL} \left( f(\mathbf{x}) \| \widehat{f_s}(\mathbf{x}) \right)

因此,隐变量 Vecchia 的 x\mathbf{x} 联合分布的近似精度优于 SGV,而 SGV 优于标准 Vecchia。但是请注意,这并不能保证观测值 zo\mathbf{z}_o 隐含的分布的 KL 散度遵循相同的排序。例如,【命题 4 】 说 Ef(logf^g(x))Ef(logf^s(x))E^f (\log \widehat{f}_g(\mathbf{x})) \geq E^f (\log \widehat{f}_s(\mathbf{x})),但这并不能保证 Ef(logf^g(x)dy)Ef(logf^s(x)dy)E^f(\log \int \widehat{f}_g(\mathbf{x}) d \mathbf{y}) \geq E^f(\log \int \widehat{f}_s(\mathbf{x}) d \mathbf{y})。这方面的例子可以在 图 3d 中找到。

另一个重要因素是不同方法的计算复杂性。

(1)标准 Vecchia 的计算复杂度

标准 Vecchia 仅以观测量为条件,因此对于任何 iji,j 都有 yj↛yi\mathbf{y}_j \not \to \mathbf{y}_i,根据【命题 3 】,这会产生对角线 W\mathbf{W}V\mathbf{V},因此标准 Vecchia 的整体时间复杂度为 O(nm3r2)\mathcal{O}(nm^3r^2)

(2)隐变量 Vecchia 的计算复杂度

Finley 等 (2017)[12] 观察到最近邻高斯过程( NNGP,使用了隐变量 Vecchia 方法 )中的矩阵不如标准 Vecchia 方法中稀疏。我们可以使用【命题 3 】 进一步研究此现象。在 图 1 的玩具示例中,隐变量 Vecchia 使用 qy(5)=(2,4)q_y(5) = (2, 4),它创建了导致 V2,40\mathbf{V}_{2,4} \neq \mathbf{0} 的路径 (y2,y5,y4)(\mathbf{y}_2, \mathbf{y}_5, \mathbf{y}_4)。设置 qy(6)=(3,5)q_y(6) = (3, 5) 会创建导致 V3,50\mathbf{V}_{3,5} \neq \mathbf{0} 的路径 (y3,y6,y7,y5)(\mathbf{y}_3, \mathbf{y}_6, \mathbf{y}_7, \mathbf{y}_5)。这在第 44 列和第 55 列中产生了 3>m=23 > m = 2 个非零的非对角元素。我们在以下命题中提供了对隐变量 Vecchia 计算成本的更多见解:

【命题 5 】 考虑 ri=1r_i = 1o=(1,,)o = (1, \ldots , \ell)mnz1/dm \leq n^{1/d}_z 的隐变量 Vecchia 方法,以及 dd 维超立方体中等距网格上的位置坐标排序和最邻居条件。然后,V=rchol(W)\mathbf{V} = \text{rchol}(\mathbf{W}) 的每一列有 O(n11/dm1/d)\mathcal{O}(n^{1−1/d}m^{1/d}) 个非零元素,需要 O(n21/dm1/d)\mathcal{O}(n^{2−1/d}m^{1/d}) 的内存。计算 V=rchol(W)\mathbf{V} = \text{rchol}(\mathbf{W}) 的最终时间复杂度为 O(n32/dm2/d)\mathcal{O}(n^{3−2/d}m^{2/d})

因此,获得 V\mathbf{V} 的时间复杂度在 d=1d = 1 维时为 O(nm2)\mathcal{O}(nm^2),对于 d=2d = 2O(n2m)\mathcal{O}(n^2m),并且随着 dd 的增加接近原始高斯过程的 nn 的三次方复杂度。对于不规则的观测位置,如果这些位置可以被认为是从域上的独立均匀分布中提取的,我们期望大致相似的缩放比例。另请注意,对 Cholesky 分解使用重新排序算法(与简单的逆排序相反)可能会导致不同的复杂性,尽管我们的数值结果表明这实际上可能会增加计算复杂性(参见图 5b)。

(3)稀疏通用 Vecchia 的计算复杂度

与隐变量 Vecchia 相比,SGV 保证了稀疏性。在玩具示例中,SGV 设置 qy(5)=(4)q_y(5) = (4)qz(5)=(2)q_z(5) = (2) 因为 2qy(4)2 \notin q_y(4),并且 qy(6)=(5)q_y(6) = (5)qz(6)=(3)q_z(6) = (3) 因为 3qy(5)3 \notin q_y(5),导致 V2,4=V3,5=0\mathbf{V}_{2,4} = \mathbf{V}_{3,5} = \mathbf{0}(与隐变量 Vecchia 相反)。更一般地说,SGV 保留了标准 Vecchia 的线性缩放,在任何空间维度和网格或不规则间隔的位置有:

【命题 6 】 对于 SGV,V\mathbf{V} 中每一列最多有 mrmr 个非对角线元素,因此计算 V=rchol(W)\mathbf{V} = \text{rchol}(\mathbf{W}) 的时间复杂度仅为 O(nm2r2)\mathcal{O}(nm^2r^2)。因此,SGV 具有与标准 Vecchia 相同的总体计算复杂度。

总之,SGV 提供了比标准 Vecchia 更高的近似精度(【命题 4 】),同时保留了 nn 的线性计算复杂性(【命题 6 】)。隐变量 Vecchia 可以提高近似精度,但会严重增加计算复杂度(【命题 5 】),这对于大 nn 是不可行的。这些结果的数值解释可以在 第 7 节 中找到。

6 排序和条件

我们现在提供对 第 2.3 节 中选项 C2–C4 的一些见解。为简单起见,除非另有说明外,后文假设 ri=1r_i = 1

6.1 排序(C3)

在一维空间中,对 S\mathcal{S} 中的位置 “从左到右” 排序是自然的。但在二维或多维空间中,位置应该如何排序并不明确。常见的排序方法有两种:

  • 坐标排序:对于 Vecchia 方法,默认和最流行的排序方法是沿着某一个空间坐标轴进行排序。Datta 等 (2016a) [6] 观察到排序对 Vecchia 近似质量的影响似乎可以忽略不计,
  • 最大最小距离排序:Guinness (2018) [20] 表明,情况可能并非总是如此,因此提出了多种排序方案,其中包括近似最大最小距离 (maxmin) 排序。最大最小距离排序通过最大化到最近邻位置的距离来选择排序中的每个位置。 Guinness (2018) 表明,最大最小距离排序可以在没有任何块金或噪音的情况下,对坐标排序进行实质性改进。我们将在第 7 节中检查其中块金非零的情况。

请注意,MRA(第 3.7 节)隐含了一种类似于最大最小距离的排序方案,该方法从空间上的粗网格开始,随后变得越来越密集。

6.2 条件向量长度的选择(C4)

作为 C4 的一部分,对于给定排序必须选择条件向量的长度 mm

对于一维空间域,可以利用 Matern 协方差近似高斯过程的方法得到一些启发。例如,如果平滑度为 ν=0.5ν = 0.5,则我们有一个 11 阶马尔可夫过程,因此可以通过 “从左到右” 排序来获得 m=1m = 1 的隐变量条件精确近似。

Stein (2011) [45] 推测,对于平滑度 νν,近似筛选适用于任何 m>νm > ν。这个猜想在 第 7 节 中进行了数值研究,特别是在 图 2a 中。请注意,具有最近邻条件的一维坐标排序相当于 AR(m)AR(m) 模型,相应的隐变量或 SGV 推断等价于卡尔曼滤波器和平滑器(参见 Eubank 和 Wang,2002 [11])。对于非常平滑的过程(即 νν 非常大),近似筛选所需的 mm 会变大,计算可能无法负担,此时采用其他替代的排序和条件策略可能更有利(参见下面的第 6.3 节)。

对于二维或更多维度,mm 不仅取决于协方差函数的平滑度,还取决于排序方法、观测位置(规则或不规则)和其他因素。此时,我们建议从相对较小的 mm 开始,然后根据先前获得的参数估计使用热启动逐渐增加 mm,直到估计收敛到所需的阈值,或直到可用的计算资源已经耗尽。

6.3 条件向量

对于给定的排序和条件向量长度 mm,最常见的条件策略是以 mm 个最近邻或位置为条件(即最近邻条件)。不过部分研究者也已经提出了一些更精细的条件策略(例如,Stein 等,2004 年 [47];Gramacy 和 Apley,2015 年 [17] )。

在排序的起始位置放置一个空间上的粗网格并始终以该网格为条件向量,在某些情况下也是有利的。

附录 C 中描述了这种被成为 *同条件集 (SCS) * 方法的性质。

7 数值化分析和研究

我们用数值方法检验了前几节中提出的命题和主张。我们探索了 第 2.3 节 中的 C3–C5,并通过比较 第 5 节 中的三种方法来强调 C5

在本节中,令 ri=1r_i = 1o=(1,,)o = (1, \ldots , \ell),且每个隐变量有相应的可观测变量。观测位置为单位间隔或单位正方形上的等距网格。假设真实高斯过程具有 Matern 协方差,其平滑度为 νν、有效变程为 λλ(即相关性降至 0.050.05 的距离)、方差为 σ2\sigma^2。我们添加了方差为 τ2\tau^2 的噪声,并令 σ2+τ2=1\sigma^2 + \tau^2 = 1,因此信号比为 σ2/(σ2+τ2)=σ2\sigma^2/(\sigma^2 + \tau^2) = \sigma^2。例如,1/21/22/32/3 的信号比分别对应 1122 的信噪比 (SNR)。我们考虑了坐标排序和 Guinness (2018) [20] 的近似最大最小距离排序。除非另有说明,否则对于给定排序使用最近邻 (NN) 条件。比较指标为近似分布 f^(z)\widehat{f}(\mathbf{z}) 和真实分布 f(z)f(\mathbf{z}) 之间的 Kullback-Leibler (KL) 散度。

7.1 一维情况

首先,我们假设一个一维空间域,D=[0,1]\mathcal{D} = [0, 1],并只考虑 “从左到右” 的自然坐标排序。第 5 节 中的三种方法基本上对应于隐变量或非隐变量的 mm 阶自回归过程 AR(m)AR(m)。从 图 2nz=100n_z = 100λ=0.9λ = 0.9 的结果中,我们可以看到隐变量 Vecchia 和等效的 SGV 比标准 Vecchia 表现得更好。图 2a 还在数值上证实了 第 6.2 节 中的猜想,即如果 m>νm > ν,则对于隐变量 Vecchia 来说(近似)筛选成立。

Fig02

图 2:在具有坐标排序和最近邻条件的单位区间上,对具有 Matern 协方差的高斯过程实现的多种 Vecchia 近似对应的 KL 散度。 SGV 相当于此设置中的隐变量 Vecchia。

7.2 二维情况

(1)不同近似方法的比较

其余结果针对二维域,D=[0,1]2\mathcal{D} = [0, 1]^2。探索【命题 4 】,图 3 显示了对应于不同 σ2\sigma^2ννmm 值时的 KL 散度,所有这些值都满足 nz=6,400n_z = 6,400λ=0.9λ = 0.9。正如我们所见,三种方法的 KL 散度大致遵循 第 5 节 中的顺序,隐变量 Vecchia 表现优于 SGV,SGV 表现优于标准 Vecchia;图中也显示出,当 SNR=SNR=\infty 时,这些方法等效。筛选效应在二维上不太明显。另请注意,最大最小距离排序通常较坐标排序有较大改进(标准 Vecchia 例外,在该方法中两种排序产生了相似的结果)。

Fig03

图 3:单位正方形上平滑度为 νν 的 Matern 协方差对应的 KL 散度(对数尺度)。 (a – c):固定 m=5m = 5,变化信号比,符号节点(从左到右)分别对应于信噪比 0.50.511225510102020\infty。 (d – f):固定信噪比为 11,变化 mm

(2)不同条件策略的比较

我们还考虑了非常平滑的协方差,这在地统计学中不太常见,但在机器学习中非常流行。我们探索了对最大最小距离排序中相同的前 mm 个变量的条件向量,这些变量分布在整个域中。图 4 表明这可以大大改进 SGV 的最近邻排序。

Fig04

图 4:平滑协方差的 KL 散度(对数尺度),最近邻 (NN) 条件策略与前 mm 变量的条件策略的对比; nz=400n_z = 400m=16m = 16,采用最大最小距离排序,变程参数 λ2λ ≈ 2。对于前 mm 变量的条件策略,SGV 近似和 隐变量 Vecchia 近似等价。

(3)三种方法的计算复杂度比较

图 5 探讨了三种方法的计算可行性,它检查了矩阵 V\mathbf{V} 的稀疏性。可以看到:

  • SGV 将 V\mathbf{V} 中每列的非零元素数保持在 mm 或低于 mm,正如【命题 6 】 所预期的那样,结果在线性缩放中作为 nn 的函数。
  • 对于隐变量 Vecchia,V=rchol(W)\mathbf{V} = \text{rchol}(\mathbf{W}) 相当密集,获得 V\mathbf{V} 的计算复杂度大致为 O(n2)\mathcal{O}(n^2),正如【命题 5 】 所预期的那样。W\mathbf{W} 的最大最小距离排序并没有提高坐标排序的复杂度。
  • 图 5c 显示了在具有 3.4 GHz 和 16GB RAM 的 4 核机器(Intel Core i7-3770)上使用 R 包 spam(Furrer 和 Sain,2010 [15])中的 chol 函数从 W\mathbf{W} 获取 V\mathbf{V} 的实际计算时间。尽管 chol 函数针对默认的最大最小距离排序进行了更多的优化,但在 nzn_z 约为 100,000100,000 时,具有最大最小距离排序的隐变量 Vecchia 大约比具有逆序的 SGV 慢两个数量级。
  • Katzfuss 等 (2018) [29] 的进一步时间研究表明,对于标准 Vecchia 和 SGV,计算 V\mathbf{V} 的时间相对于 U\mathbf{U} 可以忽略不计;因此,对于给定的 nnmm,标准 Vecchia 和 SGV 需要几乎相同的计算时间。相反,当 nn 很大时,隐变量 Vecchia 则慢几个数量级。

Fig05

图 5:在 m=8m = 8 时,获得 V\mathbf{V} 所需的稀疏性、复杂性和实际计算时间,因此 tm=(2m/π)1/22.25t_m = (2m/π)^{1/2} ≈ 2.25(参见【命题 5】的证明)。 NNZC:V\mathbf{V} 中每列非零非对角线元素的数量;最大最小距离排序及逆序:分别用于 Cholesky 算法的多最小距离排序和逆序。

(4)与其他方法的计算复杂度比较

图 6 显示了面临大 “n” 问题时,SGV、标准 Vecchia、MRA(第 3.7 节)和独立块(第 3.3 节)四种具有线性扩展性能的近似方法之间的计算复杂度比较,均使用最大最小距离排序。我们令 D=[0,1]2\mathcal{D} = [0, 1]^2σ=τ=1σ = τ = 1λ=0.9λ = 0.9

图 6c 中,我们在精细的 280×280280 \times 280 网格上模拟数据,然后从大小为 100×100100 \times 100 的粗略子集或子网格开始,考虑越来越大的数据子集。该实验探索了内填充渐近方法的准确性。

计算大 nzn_z 的确切 KL 散度不可行,因此我们通过从 m=40m = 40 的 SGV 的对数似然中减去每种方法的对数似然来进行近似,并在 1010 个模拟数据集上进行了平均。虽然独立块和 MRA(见附录 C)的时间复杂度仅为 Vecchia 方法的 O(m2/3)\mathcal{O}(m^{2/3}),但 SGV 优于所有其他方法,即使在调整复杂度差异时也是如此。

Fig06

图 6:SGV 和标准 Vecchia 与 MRA 和独立块的比较

8 结论和指南

基于将 Vecchia 近似应用于由隐高斯过程实现及其相应的含噪声观测组成的向量,我们提出了一类稀疏高斯过程近似。文献中提出的几个最常用的高斯过程近似是本文所提类型的特例。我们提供了一个用于快速计算似然的公式,并且使用 Vecchia 方法和有向无环图之间的联系研究了稀疏性和计算复杂性。我们提出了一种新颖的稀疏通用 Vecchia 方法 (SGV),它可以显著提高标准 Vecchia 的近似精度,同时保持其线性计算复杂度。相比之下,我们证明了隐变量 Vecchia(用于最近邻高斯过程 NNGP)可以在二维空间中以二次方缩放数据大小。

现在给出一些在实践中使用通用 Vecchia 方法的指南:

  • 通常,我们建议在存在块金或噪声时使用 SGV 近似,如果噪声项为零或几乎为零,则使用标准 Vecchia。
  • 在一维空间中,从左到右的排序和最近邻条件是最自然的,SGV 等价于隐变量 Vecchia。可以根据协方差函数的平滑度(即原点的可微性)来选择条件向量的大小 mm
  • 在二维空间中,我们推荐最大最小距离排序。虽然很难先验地确定一个合适的 mm,但一个有用的方法是对较小的 mm 进行推断,然后逐渐增加 mm,直到推断收敛或计算资源耗尽。最近邻条件适用于低平滑度,而当有块金较大时,基于前 mm 个隐变量的条件更适用于高平滑度。这种前 mm 条件及其扩展(例如 MRA)具有超越近似精度的优势,例如降低计算复杂性、所有变量的精确边缘分布以及后验协方差矩阵的稀疏 Cholesky 分解。虽然我们的方法原则上适用于两个以上的维度,但在这种情况下对其性质进行彻底调查是有必要的,并将在未来的工作中进行。

本文提出的方法和算法在 R 包 GPvecchia 中实现,网址为 https://github.com/katzfuss-group/GPvecchia。 Katzfuss 等 (2018) 将通用 Vecchia 框架扩展到已观测和未观测位置的高斯过程预测。他们还提供了有关计算问题和时序的更多详细信息,以及对大型卫星数据集的应用。

附录

A 向量符号

矩阵:用粗体大写字母(如 C\mathbf{C}K\mathbf{K} )表示矩阵。

向量:我们将向量定义为包含相同类型元素的 有序列表( Ordered list),并支持并集和交集运算。

  • 索引向量:使用非粗体小写字母(如 ooppqq)表示整数型的索引向量;
  • 属性向量:用粗体小写字母(如 x\mathbf{x}y\mathbf{y}z\mathbf{z})表示实数向量,或者向量的向量。使用向量的向量可能会对一些传统定义带来麻烦,但可以大大简化论文的主要论述结果。
  • 位置向量:适用手写体字母(如 S\mathcal{S} )表示位置向量,或者位置向量的向量。

举例,y=(y1,y2,y3,y4,y5)\mathbf{y} = (\mathbf{y}_1, \mathbf{y}_2, \mathbf{y}_3, \mathbf{y}_4, \mathbf{y}_5) 表示向量的向量,而y=(y1,y2,y3,y4,y5)\mathbf{y} = (y_1, y_2, y_3, y_4, y_5) 表示实数向量。

子向量:通过索引向量完成,并使用下标表示法。

举例,如果 o=(4,1,2)o = (4, 1, 2) 是一个索引向量,则子向量为 yo=(y4,y1,y2)y_o = (\mathbf{y}_4, \mathbf{y}_1, \mathbf{y}_2),遵循索引向量的顺序。

向量的并运算:向量的并集还是向量,当两个向量类型相同并且定义并集的顺序时定义。例如,如果 z = (z1, z2),则 yo \cup z = (y4, y1, z1, y2, z2) 是 yo 和 z 的并集的完整定义。

向量的交运算:交集 y ∩ z 由两个向量的公共元素组成,并且在定义交集的顺序时完全定义。

索引函数:当情况需要更抽象时,并集或交集元素的排序可以通过一个索引函数 #\# 来定义,该函数输入一个元素和一个向量,然后返回元素在向量中占用的索引。继续上面的例子,#(y4,y)=4\#(\mathbf{y}_4, \mathbf{y}) = 4,而 #(y4,yoz)=1\#(\mathbf{y}_4, \mathbf{y}_o \cup \mathbf{z}) = 1。索引函数是支持向量化的,意味着 #(z,yz)=(3,5)\#(\mathbf{z}, \mathbf{y} \cup \mathbf{z}) = (3, 5),此函数返回向量 z\mathbf{z} 在向量 yz\mathbf{y} \cup \mathbf{z} 中所占用索引的向量。从 (yz)#(z,yz)=z(\mathbf{y} \cup \mathbf{z})_{\#(\mathbf{z}, \mathbf{y} \cup \mathbf{z})} = \mathbf{z} 的意义上来说,索引函数可以充当并运算的逆运算。

其他说明

  • 实数向量:元素为实数的向量被视为普通列向量,适用向量加法和乘法规则。
  • 矩阵:被视为使用双下标的二维向量,文中所有矩阵都被视为块矩阵(块的定义基于上下文)。
  • 函数:函数的向量化是关于位置向量的。例如,如果位置向量 S=(S1,,S)\mathcal{S} = (\mathcal{S}_1, \ldots , \mathcal{S}_{\ell}),则 A=K(S,S)\mathbf{A} = K(\mathcal{S}, \mathcal{S}) 是由 ×\ell \times \ell 个块构成的分块矩阵,块 Aij=K(Si,Sj)\mathbf{A}_{ij} = K(\mathcal{S}_i, \mathcal{S}_j)
  • 全索引向量:我们用符号 \bullet 来表示所有索引构成的向量,所以 Ai=K(Si,S)A_{i \bullet} = K(\mathcal{S}_i, \mathcal{S})

B 有向无环图 (DAG) 回顾

(略)

C 同条件集 (SCS)

在同条件集方法中,每个 yi\mathbf{y}_i 都有相同的条件向量 y1\mathbf{y}_1,大小为 r1r_1;也就是说,对于所有 i>1i > 1q(i)=(1)q(i) = (1)。这是 第 3.5-3.6 节 中 MPP 和 FSA 采用的策略,其中当 i>1i > 1 时,分别有 ri=1r_i = 1ri=rr_i = r。例如,可以选择最大最小距离排序中的前 r1r_1 个变量,这会导致 D\mathcal{D} 上的一个粗网格。

同条件集方法有几个优点。

  • 首先,对于同条件集来说,隐变量 Vecchia 自动遵守 SGV 规则;或换句话说,可以保证隐方法的稀疏性。
  • 其次,如第 6.2 节所述,如果平滑度和变程足够大,则筛选效果不会成立。 同条件集是预测过程的一种扩展,在这种 “平滑” 情况下往往效果很好,因为它等效于 y()y(·) 的 Karhunen-Loe 展开的首项的 Nystrom 近似(Sang 和 Huang , 2012 [41])。
  • 第三,可以实现较低的计算复杂度,因为对于所有 i=2,,li = 2, \ldots, l式 (6) 中的 C(xg(i),xg(i))=C(y1,y1)C(\mathbf{x}_{g(i)}, \mathbf{x}_{g(i)}) = C(\mathbf{y}_1, \mathbf{y}_1) 都是相同的矩阵,其 Cholesky 分解只需计算一次。假设 r1=rmr_1 = rm,Cholesky 分解的成本是 O((rm)3)\mathcal{O}((rm)^3),每个 Bi\mathbf{B}_iDi\mathbf{D}_i 可以在 O(ri3m2)\mathcal{O}(r^3_i m^2) 时间内计算,如果对于所有 i>1i > 1ri=rr_i = r, 则会导致同条件集的整体时间复杂度为 O(nm2r2)\mathcal{O}(nm^2r^2) (即相对于一般情况减少了因子 mm)。
  • 第四,xi\mathbf{x}_i 的边缘分布(以及方差)是精确的(见第 3.6 节)。
  • 第五,V1\mathbf{V}^{−1} 具有与 V\mathbf{V} 相同的稀疏结构,可以快速计算大量预测位置的联合后验预测分布,并扩展到海量时空数据的卡尔曼滤波器类型推断(Jurek 和 Katzfuss , 2018 [24])。

上述所有优势也适用于 MRA,它可以被视为多种分辨率的迭代式同条件集方法(Katzfuss,2017 年[26];Katzfuss 和 Gong,2019 年 [28];Jurek 和 Katzfuss,2018 年 [24])。然而,同条件集和 MRA 可能需要 r1=O(nz)r_1 = \mathcal{O}(\sqrt{n_z}) 才能在二维空间中进行精确近似,这导致时间复杂度为 O(nz3/2)\mathcal{O}(n^{3/2}_z)(Minden 等,2016 [33])。

D 与组合似然的比较结果

使用模拟数据,我们比较了 SGV 方法的最大似然估计 (MLE) 与两种组合似然方法(全条件似然成对块似然)。数据是从具有指数协方差的第 2.1 节中的高斯过程模型模拟的,C(s1,s2)=σ2exp(s1s2/α)C(\mathbf{s}_1, \mathbf{s}_2) = \sigma^2 \exp(− \| \mathbf{s}_1 − \mathbf{s}_2 \|/α),其中过程和噪声方差已知,σ2=2\sigma^2 = 2τ2=1τ^2 = 1,任务是估计未知的变程参数 αα

我们的第一个模拟研究考虑了 全条件似然(FCL),定义为 f~(z)=i=1nf(zizi)\tilde{f}(\mathbf{z}) = \prod^{n}_{i=1} f(z_i|\mathbf{z}_{−i})。由于全条件似然的计算成本很高,我们考虑了一个尺寸为 30×3030 × 30、间距为 11 的较小网格。我们模拟了 300300 个真实变程 α=10α = 10 的数据集,对于每个数据集 ii,我们使用每一种方法(即精确似然、全条件似然 和 SGV)和三种 mm 的配置( m=10,15,20m = 10,15,20 )计算了 MLE α~ijj=1,,5\tilde{\alpha}_{ij},j = 1,\ldots, 5表 1a 包含了结果摘要。基于平方误差的正态近似,我们纳入了 MSE 的 95%95\% 置信区间。我们还计算了 MSE 差的置信区间,(α^ijα)2(α^iJα)2(\widehat{α}_{ij} − α)^2 − (\widehat{α}_{iJ} − α)^2,其中 JJ 对应于 m=20m = 20 的 SGV。全条件似然与 SGV 相比没有竞争力。

Table01

表 1:根据模拟数据估计变程参数,包括 MSE 相对于最后一行方法的差异的 95% 置信区间 (CI)

我们的第二个模拟研究考虑了 成对块似然(PBL),定义为 ijf(zi,zj)\prod_{i \sim j} f(\mathbf{z}_i, \mathbf{z}_j),其中每个 zi\mathbf{z}_i 对应于空间域中的一个连续矩形,iji \sim j 表示块 iijj 是空间邻居。我们使用了尺寸为 100×100100 × 100 的更大网格和更大变程的参数 α=30α = 30。我们再次模拟了 300300 个数据集,并使用成对块似然(PBL)和 SGV 的多个设置计算了变程参数 αα 的 MLE。结果在 表1b 中给出。请注意,即使是 m=20m = 20 的 SGV 也比具有 100100 个大小为 100100 的块的成对块似然方法表现更好。

E 贝叶斯推断说明

本节展示了如何使用通用 Vecchia 近似进行贝叶斯推断。我们在与 附录 D 相同的设置下使用 m=30m = 30 的 SGV。

首先,我们在 30×3030 \times 30 网格的设置中模拟了一个数据集。在先验 logαN(log(10),0.62)\log α \sim \mathcal{N}(\log(10), 0.6^2) 基础上,我们在精细网格上计算了 SGV 似然隐含的精确后验 f(αzo)f(α | \mathbf{z}_o) 和近似后验 f^(αzo)\hat{f}(α|\mathbf{z}_o)(见 图 7a )。基于这种对后验的离散近似,图 7b 显示了网格中心的未观测点 s=(15.5,15.5)s_∗ = (15.5, 15.5) 处的后验预测分布 f(y(s)zo)f(y(\mathbf{s}_∗)|\mathbf{z}_o),以及使用 Katzfuss 等 (2018) 称为 RF-full 的通用 Vecchia 预测方法得到的近似分布 f^(y(s0)zo)\hat{f}(y(\mathbf{s}_0)| \mathbf{z}_o) 。Vecchia 后验分布几乎与精确分布相同。

我们还模拟了一个设置为 100×100100 \times 100 网格的数据集,随机选择已观测的 nz=9,000n_z = 9,000 个数据点,其他高斯过程实现用作测试数据。基于先验 logαN(log(30),0.62)\log α \sim \mathcal{N}(\log(30), 0.6^2) 和 SGV 似然,我们采用标准差为 0.50.5 的高斯提议分布,对 logα\log α 运行了 Metropolis-Hastings 采样,共进行 1,2001,200 次迭代,丢弃前 200200 个样本并将剩余部分瘦化 1010 倍。然后,我们对 1,0001,000 个预留的测试位置,使用 RF-full 计算了后验预测分布f^(yozo)\hat{f}(\mathbf{y}_{−o} | \mathbf{z}_o)图 7c 显示了测试位置处 yo\mathbf{y}_{−o} 的真实模拟值,以及结果后验的 80%80\% 区间。其中 79.8%79.8\% 的区间覆盖了真实值,表明使用通用 Vecchia 获得的后验预测分布得到了很好的校准。

Fig07

图 7:基于一般 Vecchia 的贝叶斯推理结果。 PPI:后验预测区间。

F 证明

(暂略)

参考文献

  • [1] Banerjee, S., Carlin, B. P., and Gelfand, A. E. (2004). Hierarchical Modeling and Analysis for Spatial Data. Chapman & Hall.
  • [2] Banerjee, S., Gelfand, A. E., Finley, A. O., and Sang, H. (2008). Gaussian predictive process models for large spatial data sets. Journal of the Royal Statistical Society, Series B, 70(4):825–848.
  • [3] Cressie, N. and Davidson, J. L. (1998). Image analysis with partially ordered Markov models. Computational Statistics & Data Analysis, 29(1):1–26.
  • [4] Cressie, N. and Johannesson, G. (2008). Fixed rank kriging for very large spatial data sets. Journal of the Royal Statistical Society, Series B, 70(1):209–226.
  • [5] Cressie, N. and Wikle, C. K. (2011). Statistics for Spatio-Temporal Data. Wiley, Hoboken, NJ.
  • [6] Datta, A., Banerjee, S., Finley, A. O., and Gelfand, A. E. (2016a). Hierarchical nearest-neighbor Gaussian process models for large geostatistical datasets. Journal of the American Statistical Association, 111(514):800–812.
  • [7] Datta, A., Banerjee, S., Finley, A. O., and Gelfand, A. E. (2016b). On nearest-neighbor Gaussian process models for massive spatial data. Wiley Interdisciplinary Reviews: Computational Statistics, 8(5):162–171.
  • [8] Datta, A., Banerjee, S., Finley, A. O., Hamm, N. A. S., and Schaap, M. (2016c). Non-separable dynamic nearest-neighbor Gaussian process models for large spatio-temporal data with an application to particulate matter analysis. Annals of Applied Statistics, 10(3):1286–1316.
  • [9] Du, J., Zhang, H., and Mandrekar, V. S. (2009). Fixed-domain asymptotic properties of tapered maximum likelihood estimators. The Annals of Statistics, 37:3330–3361.
  • [10] Eidsvik, J., Shaby, B. A., Reich, B. J., Wheeler, M., and Niemi, J. (2014). Estimation and prediction in spatial models with block composite likelihoods using parallel computing. Journal of Computational and Graphical Statistics, 23(2):295–315.
  • [11] Eubank, R. L. and Wang, S. J. (2002). The equivalence between the Cholesky decomposition and the Kalman filter. The American Statistician, 56(1):39–43.
  • [12] Finley, A. O., Datta, A., Cook, B. C., Morton, D. C., Andersen, H. E., and Banerjee, S. (2017). Applying nearest neighbor Gaussian processes to massive spatial data sets: Forest canopy height prediction across Tanana Valley Alaska. arXiv:1702.00434.
  • [13] Finley, A. O., Sang, H., Banerjee, S., and Gelfand, A. E. (2009). Improving the performance of predictive process modeling for large datasets. Computational Statistics & Data Analysis, 53(8):2873–2884.
  • [14] Furrer, R., Genton, M. G., and Nychka, D. (2006). Covariance tapering for interpolation of large spatial datasets. Journal of Computational and Graphical Statistics, 15(3):502–523.
  • [15] Furrer, R. and Sain, S. R. (2010). spam: A sparse matrix R package with emphasis on MCMC methods for Gaussian Markov random fields. Journal of Statistical Software, 36(10):1–25.
  • [16] Gerber, F., Furrer, R., Schaepman-Strub, G., de Jong, R., and Schaepman, M. E. (2018). Predicting missing values in spatio-temporal satellite data. IEEE Transactions on Geoscience and Remote Sensing, 56:28412853.
  • [17] Gramacy, R. B. and Apley, D. W. (2015). Local Gaussian process approximation for large computer experiments. Journal of Computational and Graphical Statistics, 24(2):561–578.
  • [18] Gramacy, R. B. and Lee, H. K. (2012). Cases for the nugget in modeling computer experiments. Statistics and Computing, 22(3):713–722.
  • [19] Guhaniyogi, R. and Banerjee, S. (2018). Meta-kriging: Scalable bayesian modeling and inference for massive spatial datasets. Technometrics, 60(4):430–444.
  • [20] Guinness, J. (2018). Permutation methods for sharpening Gaussian process approximations. Technometrics, 60(4):415–429.
  • [21] Heaton, M. J., Datta, A., Finley, A. O., Furrer, R., Guinness, J., Guhaniyogi, R., Gerber, F., Gramacy, R. B., Hammerling, D., Katzfuss, M., Lindgren, F., Nychka, D. W., Sun, F., and Zammit-Mangion, A. (2019). A case study competition among methods for analyzing large spatial data. Journal of Agricultural, Biological, and Environmental Statistics, accepted.
  • [22] Higdon, D. (1998). A process-convolution approach to modelling temperatures in the North Atlantic Ocean. Environmental and Ecological Statistics, 5(2):173–190.
  • [23] Huang, H. and Sun, Y. (2018). Hierarchical low rank approximation of likelihoods for large spatial datasets. Journal of Computational and Graphical Statistics, 27(1):110–118.
  • [24] Jurek, M. and Katzfuss, M. (2018). Multi-resolution filters for massive spatio-temporal data. arXiv:1810.04200.
  • [25] Kalman, R. (1960). A new approach to linear filtering and prediction problems. Journal of Basic Engineering, 82(1):35–45.
  • [26] Katzfuss, M. (2017). A multi-resolution approximation for massive spatial datasets. Journal of the American Statistical Association, 112(517):201–214.
  • [27] Katzfuss, M. and Cressie, N. (2011). Spatio-temporal smoothing and EM estimation for massive remotesensing data sets. Journal of Time Series Analysis, 32(4):430–446.
  • [28] Katzfuss, M. and Gong, W. (2019). A class of multi-resolution approximations for large spatial datasets. Statistica Sinica, accepted.
  • [29] Katzfuss, M., Guinness, J., Gong, W., and Zilber, D. (2018). Vecchia approximations of Gaussian-process predictions. arXiv:1805.03309.
  • [30] Kaufman, C. G., Schervish, M. J., and Nychka, D. W. (2008). Covariance tapering for likelihood-based estimation in large spatial data sets. Journal of the American Statistical Association, 103(484):15451555.
  • [31] Lauritzen, S. L. (1996). Graphical Models. Clarendon Press.
  • [32] Lindgren, F., Rue, H., and Lindstr ̈om, J. (2011). An explicit link between Gaussian fields and Gaussian Markov random fields: the stochastic partial differential equation approach. Journal of the Royal Statistical Society: Series B, 73(4):423–498.
  • [33] Minden, V., Damle, A., Ho, K. L., and Ying, L. (2016). Fast spatial Gaussian process maximum likelihood estimation via skeletonization factorizations. arXiv preprint arXiv:1603.08057.
  • [34] Nychka, D. W., Bandyopadhyay, S., Hammerling, D., Lindgren, F., and Sain, S. R. (2015). A multi-resolution Gaussian process model for the analysis of large spatial data sets. Journal of Computational and Graphical Statistics, 24(2):579–599.
  • [35] Quinonero-Candela, J. and Rasmussen, C. E. (2005). A unifying view of sparse approximate Gaussian process regression. Journal of Machine Learning Research, 6:1939–1959.
  • [36] Rasmussen, C. E. and Williams, C. K. I. (2006). Gaussian Processes for Machine Learning. MIT Press.
  • [37] Rauch, H., Rauch, H., Tung, F., and Striebel, C. (1965). Maximum likelihood estimates of linear dynamic systems. AIAA Journal, 3(8):1445–1450.
  • [38] Rue, H. and Held, L. (2005). Gaussian Markov Random Fields: Theory and Applications. CRC press.
  • [39] Rue, H. and Held, L. (2010). Discrete spatial variation. In Handbook of Spatial Statistics, chapter 12, pages 171–200. CRC Press.
  • [40] Rutimann, P. and B ̈ uhlmann, P. (2009). High dimensional sparse covariance estimation via directed acyclic graphs. Electronic Journal of Statistics, 3:1133–1160.
  • [41] Sang, H. and Huang, J. Z. (2012). A full scale approximation of covariance functions. Journal of the Royal Statistical Society, Series B, 74(1):111–132.
  • [42] Sang, H., Jun, M., and Huang, J. Z. (2011). Covariance approximation for large multivariate spatial datasets with an application to multiple climate model errors. Annals of Applied Statistics, 5(4):2519–2548.
  • [43] Shaby, B. A. (2014). The open-faced sandwich adjustment for MCMC using estimating functions. Journal of Computational and Graphical Statistics, 23(3):853–876.
  • [44] Snelson, E. and Ghahramani, Z. (2007). Local and global sparse Gaussian process approximations. In Artificial Intelligence and Statistics 11 (AISTATS).
  • [45] Stein, M. L. (2011). When does the screening effect hold? The Annals of Statistics, 39(6):2795–2819.
  • [46] Stein, M. L. (2014). Limitations on low rank approximations for covariance matrices of spatial data. Spatial Statistics, 8:1–19.
  • [47] Stein, M. L., Chi, Z., and Welty, L. (2004). Approximating likelihoods for large spatial data sets. Journal of the Royal Statistical Society: Series B, 66(2):275–296.
  • [48] Sun, Y. and Stein, M. L. (2016). Statistically and computationally efficient estimating equations for large spatial datasets. Journal of Computational and Graphical Statistics, 25(1):187–208.
  • [49] Toledo, S. (2007). Lecture Notes on Combinatorial Preconditioners, Chapter 3. http://www.tau.ac.il/ ̃stoledo/Support/chapter-direct.pdf.
  • [50] Varin, C., Reid, N., and Firth, D. (2011). An overview of composite likelihood methods. Statistica Sinica, pages 5–42.
  • [51] Vecchia, A. (1988). Estimation and model identification for continuous spatial processes. Journal of the Royal Statistical Society, Series B, 50(2):297–312.
  • [52] Wikle, C. K. and Cressie, N. (1999). A dimension-reduced approach to space-time Kalman filtering. Biometrika, 86(4):815–829.
  • [53] Zhang, B., Sang, H., and Huang, J. Z. (2018). Smoothed full-scale approximation of Gaussian process models for computation of large spatial datasets. Statistica Sinica, accepted.
  • [54] Zhang, H. (2012). Asymptotics and computation for spatial statistics. In Advances and Challenges in Space-time Modelling of Natural Events, pages 239–252. Springer.