【摘 要】 用于分析地统计数据的空间过程模型需要进行计算,随着空间位置的数量变大,这些计算变得令人望而却步。本文开发了一类高度可扩展的最近邻高斯过程 (NNGP) 模型,为大型地统计数据集提供完全基于模型的推断。我们确定最近邻高斯过程是一个定义明确的空间过程,它提供合法的有限维高斯密度和稀疏精度矩阵。我们将最近邻高斯过程作为稀疏归纳先验嵌入到丰富的分层建模框架中,并概述了如何在不存储或分解大型矩阵的情况下执行计算高效的马尔可夫链蒙特卡罗 (MCMC) 算法。该算法每次迭代的浮点运算 (flops) 与空间位置的数量成线性关系,从而呈现出可观的可扩展性。我们使用模拟研究说明了最近邻高斯过程相对于竞争方法的计算和推断优势,并且还分析了美国森林资源清查数据集中的森林生物量,其规模超过了其他降维方法。本文的补充材料可在线获取。
【原 文】 Datta, A. et al. (2016) ‘Hierarchical Nearest-Neighbor Gaussian Process Models for Large Geostatistical Datasets’, Journal of the American Statistical Association, 111(514), pp. 800–812. Available at: https://doi.org/10.1080/01621459.2015.1044091 .
【阅后感】
1 引言
随着地理信息系统和用户友好软件功能的不断增强,当今统计学家经常会遇到地理参考数据集,其中包含大量不规则位置的多变量观测值。这反过来激发了人们对位置参考数据统计建模的极大兴趣;请参见 Stein (1999)[39] 、Moller 和 Waagepetersen (2003) [31] 、Schabenberger 和 Gotway (2004) [35] 、Cressie 和 Wikle (2011) [8] 以及 Banerjee、Carlin 和 Gelfand (2014) [1] 等书籍以了解各种方法和应用。
空间过程模型(Spatial process models ) 在兴趣区域 D \mathcal{D} D 上使用隐随机场 { w ( s ) : s ∈ D } \{\mathbf{w}(\mathbf{s}) : s \in \mathcal{D}\} { w ( s ) : s ∈ D } 引入观测值之间的空间依赖性,该随机场可以指定任意有限随机变量集合的联合概率分布。例如,零均值的高斯过程确保 w = ( w ( s 1 ) , w ( s 2 ) , … , w ( s n ) ) ′ ∼ N ( 0 , C ( θ ) ) \mathbf{w} = (\mathbf{w}(\mathbf{s}_1), \mathbf{w}(\mathbf{s}_2), \ldots , \mathbf{w}(\mathbf{s}_n))^{\prime} \sim \mathcal{N}(\mathbf{0}, \mathbf{C}(\boldsymbol{\theta})) w = ( w ( s 1 ) , w ( s 2 ) , … , w ( s n ) ) ′ ∼ N ( 0 , C ( θ )) ,其中 C ( θ ) \mathbf{C}(\boldsymbol{\theta}) C ( θ ) 代表由未知参数 θ \boldsymbol{\theta} θ 索引的一个协方差矩阵族。这种空间过程提供了一个丰富的建模框架,并被研究人员广泛使用以帮助理解科学中的复杂空间现象。
然而,该模型框架的拟合通常涉及求解 C ( θ ) \mathbf{C}(\boldsymbol{\theta}) C ( θ ) 的逆和行列式,需要 n 3 n^3 n 3 阶浮点运算(flops)和 n 2 n^2 n 2 阶的存储。当 n n n 很大并且 C ( θ ) \mathbf{C}(\boldsymbol{\theta}) C ( θ ) 没有可优化利用的特殊结构时,这变得令人望而却步。
从广义上讲,对大型空间数据集进行建模是从 “利用低秩模型” 或 “使用稀疏性” 开始的。
1.1 低秩方法
低秩模型 试图在低维子空间上构建空间过程,一般通过在较小的 r ≪ n r \ll n r ≪ n 个位置( “结点(knots)” 或 “中心”)集合上,对原始空间过程(简称为父过程)的实现进行回归。例如:
Higdon 2001 [24] ;
Kammann 和 Wand 2003 [25] ;
Rasmussen 和 Williams 2005 [32] ;
Stein 2007 [41] 、2008 [42] ;
Banerjee 等 2008 [3] ;
Crainiceanu 等 2008 [6] ;
Cressie 和Johannesson 2008 [7] ;
Finley、Banerjee 和 McRoberts 2009 [15] 。
低秩模型拟合的算法成本会从 O ( n 3 ) \mathcal{O}(n^3) O ( n 3 ) 减少到 O ( n r 2 + r 3 ) ≈ O ( n r 2 ) \mathcal{O}(nr^2 + r^3) \approx \mathcal{O}(nr^2) O ( n r 2 + r 3 ) ≈ O ( n r 2 ) 。不过,当 n n n 很大时,经验调查表明 r r r 必须足够大才能充分地近似父过程,因此造成 n r 2 nr^2 n r 2 也会变得过高(参见 第 5.1 节
)。此外,当相邻观测值高度相关并且空间信号能够控制噪声时,低秩模型表现不佳 (Stein 2014) [43] 。尽管经过 偏置调整(bias-adjusted)
的低秩模型通常会得到更好表现(Finley、Banerjee 和 McRoberts 2009 [15] ;Banerjee 等 2010 [2] ;Sang 和 Huang 2012 [34] ),但它们往往会增加计算负担。
1.2 稀疏方法
稀疏方法的常见策略是 协方差矩阵锥化 和 精度矩阵的稀疏化 。
协方差矩阵的锥化 。它使用紧凑支撑的协方差函数,在协方差矩阵 C ( θ ) \mathbf{C}(\boldsymbol{\theta}) C ( θ ) 中引入稀疏性。此类方法对于模型的参数估计和响应变量的插值(“克里金法”)非常有效,但在对残差或隐过程的更一般性推断方面,尚未得到充分开发或探索。参见例如:
Furrer、Genton 和 Nychka,2006 年 [16] ;
Kaufman、Scheverish 和 Nychka,2008 年 [27] ;
Du、Zhang 和 Mandrekar,2009 年 [11] ;
Shaby 和 Ruppert,2012 年 [36] 。
精度矩阵的稀疏化 。直接在精度矩阵(即协方差矩阵的逆矩阵, C − 1 ( θ ) \mathbf{C}^{-1}(\boldsymbol{\theta}) C − 1 ( θ ) )中引入稀疏性,是另一种常用的稀疏化策略。此类方法大多涉及采用某种形式的简化似然来近似高斯过程的完全似然。与低秩过程不同,此类方法不一定能够扩展到任意位置的新随机变量。此类方法也可能没有对应的空间过程,这限制了对空间协方差参数的推断。此外,此类方法通过将估计输入从不同过程模型导出的插值器来实现任意位置的空间预测,这可能无法准确反映预测不确定性的估计。例如:
马尔可夫随机场方法(例如 Rue 和 Held 2005[33] ; Lindgren 2011[30] );
条件分布分解方法(Vecchia 1988 [46] 、1992 [47] ;Stein、Chi 和 Welty 2004 [44] );
组合似然方法(例如,Bevilacqua 和 Gaetan 2014 [5] ;Eidsvik 等 2014 [12] )。
1.3 本文贡献
我们的贡献是: 为空间过程(可能完全是无法观测的)的完全基于过程的推断,提供了可观的可扩展性 。从 “有限维的稀疏似然”(指似然分解等方法) 过渡到 “稀疏归纳的空间过程”(指低秩方法) 可能非常复杂,我们的策略是:
首先,使用从有向无环图构造的特定邻居集,在有限维概率模型中引入了稀疏性;
然后,利用上述邻居集合,将原有限维概率模型扩展为一个在不可数集合上的有效空间过程。
我们称此过程为 最近邻高斯过程(Nearest-Neighbor Gaussian Process, NNGP)
,其有限维实现具有封闭形式的稀疏精度矩阵。
在 Vecchia (1988) [46] 、Stein、Chi 和 Welty (2004) [44] 、Emory (2009) [13] 、Gramacy 和 Apley (2014) [21] 、Gramacy、Niemi 和 Weiss (2014) [23] 以及 Stroud、Stein 和Lysen (2014)[45] 中,尽管稀疏性已经被有效地用于近似高成本似然,但迄今为止,尚没有一个完全基于过程的建模和推断框架 ,而 本文提出的最近邻高斯过程,将模型参数估计、响应变量预测、底层空间过程插值纳入了一个高度可扩展的统一框架,填补了这一空白,并丰富了现有方法的推断能力 。
为了展示其完整推断能力,我们将最近邻高斯过程部署为贝叶斯框架中空间过程的稀疏归纳先验(即作为分层模型中的第二个阶段:过程模型)。与低秩过程方法不同,最近邻高斯过程始终指定非退化的有限维分布,并且适用于空间随机过程的任意类型分布。因此,它可以被用来模拟未被实际观测到的隐过程。这种建模方式可以在第二阶段 (即分层建模框架中的过程模型阶段)为随机效应(例如截距或系数)提供结构化的依赖性,并且不要求第一阶段(即分层建模框架中的数据模型阶段)必须是高斯的。
我们在空间变系数回归框架(Gelfand 等,2003 年 [20] ;Banerjee 等,2008 年 [3] )中使用了一个多元最近邻高斯过程,可以很方便地获得所有模型参数以及空间过程的完整后验。
最后,我们在一个规模较大的林业案例中(其规模大到即便低秩过程在高性能计算环境中也无法实现),展示了最近邻高斯过程为空间变系数回归模型提供的过程推断实例。
1.4 文章结构
2 最近邻高斯过程
2.1 稀疏有向无环图上的高斯密度
我们将考虑 R d \mathbb{R}^d R d 上的一个 “q q q -变量” 空间过程(注:指具有 q q q 个响应变量或对应的随机过程)。
设 w ( s ) ∼ G P ( 0 , C ( ⋅ , ⋅ ∣ θ ) ) \mathbf{w}(\mathbf{s}) \sim \mathcal{GP}(\mathbf{0}, \mathbf{C}(·, · | \boldsymbol{\theta})) w ( s ) ∼ G P ( 0 , C ( ⋅,⋅ ∣ θ )) 为一个零均值的 “q q q -变量” 高斯过程,其中对于所有的 s ∈ D ⊆ R d \mathbf{s} \in \mathcal{D} \subseteq \mathbb{R}^d s ∈ D ⊆ R d ,有 w ( s ) ∈ R q \mathbf{w}(\mathbf{s}) \in \mathbb{R}^q w ( s ) ∈ R q 。该过程完全由有效的 互协方差函数(cross-covariance function) C ( ⋅ , ⋅ ∣ θ ) \mathbf{C}(·, · | \boldsymbol{\theta}) C ( ⋅,⋅ ∣ θ ) 指定,它将 D × D \mathcal{D} × \mathcal{D} D × D 中的一对位置 s \mathbf{s} s 和 t \mathbf{t} t 映射到一个 q × q q × q q × q 实值矩阵 C ( s , t ) \mathbf{C}(\mathbf{s,t}) C ( s , t ) 中,其中元素值为 cov { w i ( s ) , w j ( t ) } \text{cov}\{w_i(\mathbf{s}), w_j(\mathbf{t})\} cov { w i ( s ) , w j ( t )} 。这里,θ \boldsymbol{\theta} θ 表示与互协方差函数相关的参数。设 S = { s 1 , s 2 , … , s k } \mathscr{S}= \{ \mathbf{s}_1, \mathbf{s}_2, \ldots , \mathbf{s}_k\} S = { s 1 , s 2 , … , s k } 是 D \mathcal{D} D 中不同位置组成的一个固定集合,我们称之为 参考集(reference set) 。所以,w S ∼ N ( 0 , C S ( θ ) ) \mathbf{w}_{\mathscr{S}} \sim \mathcal{N}(\mathbf{0}, \mathbf{C}_{\mathscr{S}}(\boldsymbol{\theta})) w S ∼ N ( 0 , C S ( θ )) ,其中 w S = ( w ( s 1 ) ′ , w ( s 2 ) ′ , … , w ( s k ) ′ ) ′ \mathbf{w}_{\mathscr{S}} = (\mathbf{w}(\mathbf{s}_1)^{\prime}, \mathbf{w}(\mathbf{s}_2)^{\prime}, \ldots , \mathbf{w}(\mathbf{s}_k)^{\prime})^{\prime} w S = ( w ( s 1 ) ′ , w ( s 2 ) ′ , … , w ( s k ) ′ ) ′ ,并且 C S ( θ ) \mathbf{C}_{\mathscr{S}}(\boldsymbol{\theta}) C S ( θ ) 是一个大小为 q k × q k qk× qk q k × q k 的正定分块矩阵,其中共有 k × k k \times k k × k 个块,每个块的大小为 q × q q \times q q × q 对应于 C ( s i , s j ) \mathbf{C}(\mathbf{s}_i, \mathbf{s}_j) C ( s i , s j ) 。为便于表示,本文后面将 C S ( θ ) \mathbf{C}_{\mathscr{S}}(\boldsymbol{\theta}) C S ( θ ) 简写为 C S \mathbf{C}_{\mathscr{S}} C S ,对 θ \boldsymbol{\theta} θ 的依赖被隐含了,以后的所有空间协方差矩阵都将采用类似符号表示。
参考集 S \mathscr{S} S 不需要与观测位置集合重合或成为观测位置集的一部分,因此 k k k 不一定等于 n n n ,尽管我们稍后表明观测位置集可能是 S \mathscr{S} S 方便而实际的选择。当 k k k 很大时,参数估计在计算上变得很麻烦,甚至不可行,因为它需要求 C S C_{\mathscr{S}} C S 的逆和行列式。我们的方法受益于将 w S \mathbf{w}_{\mathscr{S}} w S 的联合密度表示为若干条件密度的乘积:
p ( w S ) = p ( w ( s 1 ) ) ⋅ p ( w ( s 2 ) ∣ w ( s 1 ) ) … ⋅ p ( w ( s k ) ∣ w ( s k − 1 ) , … , w ( s 1 ) ) (1) p(\mathbf{w}_{\mathscr{S}}) = p(\mathbf{w}(\mathbf{s}_1)) \cdot p(\mathbf{w}(\mathbf{s}_2) \mid \mathbf{w}(\mathbf{s}_1)) \ldots \cdot p(\mathbf{w}(\mathbf{s}_k) \mid \mathbf{w}(\mathbf{s}_{k − 1}), \ldots , \mathbf{w}(\mathbf{s}_1)) \tag{1}
p ( w S ) = p ( w ( s 1 )) ⋅ p ( w ( s 2 ) ∣ w ( s 1 )) … ⋅ p ( w ( s k ) ∣ w ( s k − 1 ) , … , w ( s 1 )) ( 1 )
并将 式 (1)
右侧较大的条件集合替换为经过精心挑选的、大小不超过 m m m 的条件集合( m ≪ k m \ll k m ≪ k )。 参见例如,Vecchia 1988 [46] ;Stein、Chi 和 Welty 2004 [44] ; Gramacy 和 Apley 2014 [21] ;Gramacy、Niemi 和 Weiss 2014 [23] )。因此,对于每个 s i ∈ S \mathbf{s}_i \in \mathscr{S} s i ∈ S ,我们都会对应一个较小的条件集 N ( s i ) ⊂ S − { s i } N(\mathbf{s}_i) \subset \mathscr{S} -\{\mathbf{s}_i\} N ( s i ) ⊂ S − { s i } ,进而可以将上式重写为:
p ~ ( w S ) = ∏ i = 1 k p ( w ( s i ) ∣ w N ( s i ) ) (2) \tilde{p}(\mathbf{w}_{\mathscr{S}}) = \prod^{k}_{i=1} p(\mathbf{w}(\mathbf{s}_i) \mid \mathbf{w}_{N(\mathbf{s}_i)}) \tag{2}
p ~ ( w S ) = i = 1 ∏ k p ( w ( s i ) ∣ w N ( s i ) ) ( 2 )
其中 w N ( s i ) \mathbf{w}_{N(\mathbf{s}_i)} w N ( s i ) 是将 w ( s ) \mathbf{w}(\mathbf{s}) w ( s ) 在 N ( s i ) N(\mathbf{s}_i) N ( s i ) 上的实现堆叠而成的向量。
设 N S = { N ( s i ) ; i = 1 , 2 , … , k } N_{\mathscr{S}} = \{ N(\mathbf{s}_i); i= 1, 2, \ldots , k\} N S = { N ( s i ) ; i = 1 , 2 , … , k } 是 S \mathscr{S} S 上所有条件集组成的集合。我们可以将 { S , N S } \{ \mathscr{S} , N_{\mathscr{S}} \} { S , N S } 视为一个有向图 G \mathscr{G} G ,其中 S = { s 1 , s 2 , … , s k } \mathscr{S}= \{\mathbf{s}_1, \mathbf{s}_2, \ldots , \mathbf{s}_k \} S = { s 1 , s 2 , … , s k } 是结点的集合,N S N_{\mathscr{S}} N S 是有向边的集合。对于任意两个结点 s i \mathbf{s}_i s i 和 s j \mathbf{s}_j s j ,如果存在来自 s i \mathbf{s}_i s i 到 s j \mathbf{s}_j s j 的有向边,则我们称 s j \mathbf{s}_j s j 是 s i \mathbf{s}_i s i 的 有向邻居(directed neighbor) 。因此,N ( s i ) N(\mathbf{s}_i) N ( s i ) 表示了 s i \mathbf{s}_i s i 的有向邻居集合,以后我们称其为 s i \mathbf{s}_i s i 的 “邻居集(neighbor set)”。有向图中的 “有向循环(directed cycle)” 指由结点 s i 1 , s i 2 , … , s i b \mathbf{s}_{i1}, \mathbf{s}_{i2}, \ldots , \mathbf{s}_{ib} s i 1 , s i 2 , … , s ib 依次有向连接构成的链,其中链首和链尾为同一结点,即 s i 1 = s i b \mathbf{s}_{i1} = \mathbf{s}_{ib} s i 1 = s ib 。不存在有向环的有向图被称为 “有向无环图(directed acyclic graph, DAG)”。
如果 G \mathscr{G} G 是一个有向无环图,则根据如上定义,p ~ ( w S ) \tilde{p}(\mathbf{w}_\mathscr{S}) p ~ ( w S ) 是一个多元联合密度(参见在线附录 A1 或 Lauritzen (1996) [28] 以获得类似结论)。从联合多元密度 p ( w S ) p(\mathbf{w}_{\mathscr{S}}) p ( w S ) 开始,我们使用有向无环图 G \mathscr{G} G 导出了新密度 p ~ ( w S ) \tilde{p}(\mathbf{w}_{\mathscr{S}}) p ~ ( w S ) 。虽然这适用于任何原始密度 p ( w S ) p(\mathbf{w}_{\mathscr{S}}) p ( w S ) ,但它在我们的上下文中特别有用,因为 p ( w S ) p(\mathbf{w}_{\mathscr{S}}) p ( w S ) 是多元高斯密度并且 G \mathscr{G} G 足够稀疏。准确地说,令 C N ( s i ) \mathbf{C}_{N(\mathbf{s}_i)} C N ( s i ) 为 w N ( s i ) \mathbf{w}_{N(\mathbf{s}_i)} w N ( s i ) 的协方差矩阵,让 C s i , N ( s i ) \mathbf{C}_{\mathbf{s}_i, N(\mathbf{s}_i)} C s i , N ( s i ) 为随机向量 w ( s i ) \mathbf{w}(\mathbf{s}_i) w ( s i ) 和 w N ( s i ) \mathbf{w}_{N(\mathbf{s}_i)} w N ( s i ) 之间大小为 q × m q q×mq q × m q 的互协方差矩阵。标准分布理论揭示:
p ~ ( w S ) = ∏ i = 1 k N ( w ( s i ) ∣ B s i w N ( s i ) , F s i ) (3) \tilde{p}(\mathbf{w}_{\mathscr{S}}) = \prod^{k}_{i=1} N \left (\mathbf{w}(\mathbf{s}_i) \mid \mathbf{B}_{\mathbf{s}_i} \mathbf{w}_{N(\mathbf{s}_i)}, \mathbf{F}_{\mathbf{s}_i} \right ) \tag{3}
p ~ ( w S ) = i = 1 ∏ k N ( w ( s i ) ∣ B s i w N ( s i ) , F s i ) ( 3 )
其中 B s i = C s i , N ( s i ) C N ( s i ) − 1 \mathbf{B}_{\mathbf{s}_i} = \mathbf{C}_{\mathbf{s}_i,N(\mathbf{s}_i)} \mathbf{C}_{N(\mathbf{s}_i)}^{-1} B s i = C s i , N ( s i ) C N ( s i ) − 1 和 F s i = C ( s i , s i ) − C s i , N ( s i ) C N ( s i ) − 1 C N ( s i ) , s i \mathbf{F}_{\mathbf{s}_i} = \mathbf{C}(\mathbf{s}_i, \mathbf{s}_i) − \mathbf{C}_{\mathbf{s}_i,N(\mathbf{s}_i)} \mathbf{C}_{N(\mathbf{s}_i)}^{-1} \mathbf{C}_{N(\mathbf{s}_i), \mathbf{s}_i} F s i = C ( s i , s i ) − C s i , N ( s i ) C N ( s i ) − 1 C N ( s i ) , s i 。附录 A2(可在线获取)显示 式 (3)
中的 p ~ ( w S ) \tilde{p}(\mathbf{w}_\mathscr{S}) p ~ ( w S ) 是具有协方差矩阵 C ~ S \tilde{\mathbf{C}}_{\mathscr{S}} C ~ S 的多元高斯密度,这显然不同于 C S \mathbf{C}_{\mathscr{S}} C S 。此外,如果 N ( s i ) N(\mathbf{s}_i) N ( s i ) 对于 S \mathscr{S} S 中每个 s i \mathbf{s}_i s i 最多有 m m m 个成员( m ≪ k m \ll k m ≪ k ),则 C ~ S − 1 \tilde{\mathbf{C}}^{−1}_{\mathscr{S}} C ~ S − 1 是稀疏的,最多有 k m ( m + 1 ) q 2 / 2 km(m+ 1)q^2/2 km ( m + 1 ) q 2 /2 个非零元素。因此,对于某类非常普遍的邻居集,式 (2)
中定义的 p ~ ( w S ) \tilde{p}(\mathbf{w}_{\mathscr{S}}) p ~ ( w S ) 是具有稀疏精度矩阵的多元高斯分布的联合密度。
转向邻居集,选择 N ( s i ) N(\mathbf{s}_i) N ( s i ) 为 { s 1 , s 2 , … , s i − 1 } \{\mathbf{s}_1, \mathbf{s}_2, \ldots , \mathbf{s}_{i-1}\} { s 1 , s 2 , … , s i − 1 } 的任何子集保证了一个无环图 G \mathscr{G} G 以及 式 (3)
中的一个有效概率密度。在 似然近似(likelihood approximation)
的上下文中存在几种特殊情况。例如,Vecchia (1988)[46] 和 Stroud、Stein 和 Lysen (2014)[45] 将 N ( s i ) N(\mathbf{s}_i) N ( s i ) 指定为集合 { s 1 , s 2 , … , s i − 1 } \{\mathbf{s}_1, \mathbf{s}_2, \ldots , \mathbf{s}_{i-1}\} { s 1 , s 2 , … , s i − 1 } 中的 m m m 个 s i \mathbf{s}_i s i 的欧式最近邻。Stein、Chi 和 Welty (2004) [44] 考虑了 { s 1 , s 2 , … , s i − 1 } \{\mathbf{s}_1, \mathbf{s}_2, \ldots , \mathbf{s}_{i-1}\} { s 1 , s 2 , … , s i − 1 } 中的最近和最远邻居。Gramacy 和 Apley (2014)[21] 在选择 N ( s i ) N(\mathbf{s}_i) N ( s i ) 时提供了更大的灵活性,但可能需要多个近似值才能有效。
以上所有选择都取决于位置的排序。空间位置不是自然排序的,可以强加顺序,例如,对坐标之一进行排序。当然,可以使用坐标的任何其他函数来强加顺序。上述作者已经有力地证明了排序的选择对 式 (1)
与 式 (3)
的近似没有明显影响。我们自己的模拟实验(参见附录 A5
,可在线获取)与这些发现一致;基于 p ~ ( w S ) \tilde{p}(\mathbf{w}_\mathscr{S}) p ~ ( w S ) 的推断对于位置排序而言非常稳健。这并不完全令人惊讶。显然,无论我们在 式 (1)
中选择什么顺序,p ( w S ) p(\mathbf{w}_{\mathscr{S}}) p ( w S ) 都会产生完整的联合密度。请注意,我们根据根据 式 (1)
中的特定顺序构造的邻居集将 式 (1)
简化为 式 (2)
。 式 (1)
中的不同排序将为 式 (2)
产生一组不同的邻居。由于 p ~ ( w S ) \tilde{p}(\mathbf{w}_\mathscr{S}) p ~ ( w S ) 最终依赖于从邻居那里借来的信息,其有效性通常取决于邻居数量而不是特定顺序。
在下一节中,我们将把近似密度 p ~ ( w S ) \tilde{p}(\mathbf{w}_{\mathscr{S}}) p ~ ( w S ) 扩展到一个空间过程。我们的后续扩展适用于能够确保无环的任何 N ( s i ) N(\mathbf{s}_i) N ( s i ) 选择。一般来说,确定能够最佳预测 s i \mathbf{s}_i s i 的 m m m 个位置构成的 “最佳子集” ,本身是一个非凸优化问题。这很难实现并且违背了使用较小条件集来简化计算的目的。尽管如此,我们发现 Vecchia 从 { s 1 , s 2 , … , s i − 1 } \{\mathbf{s}_1, \mathbf{s}_2, \ldots , \mathbf{s}_{i-1}\} { s 1 , s 2 , … , s i − 1 } 中选择 m m m 个最近邻的方法很简单,并且在广泛的模拟实验中表现得非常好。接下来,这也将是我们对 N ( s i ) N(\mathbf{s}_i) N ( s i ) 的选择,相应的密度 p ~ ( w S ) \tilde{p}(\mathbf{w}_{\mathscr{S}}) p ~ ( w S ) 将被称为 w S \mathbf{w}_{\mathscr{S}} w S 的 “最近邻密度”。
2.2 扩展到高斯过程
令 u \mathbf{u} u 是位于 D \mathcal{D} D 内 S \mathscr{S} S 外的任何位置。与 N ( s i ) N(\mathbf{s}_i) N ( s i ) 的定义一致,设 N ( u ) N(\mathbf{u}) N ( u ) 为 u \mathbf{u} u 中的 m m m 个最近邻的集合。则对于任何有限集 U = { u 1 , u 2 , … , u r } \mathscr{U} = \{\mathbf{u}_1, \mathbf{u}_2, \ldots , \mathbf{u}_r\} U = { u 1 , u 2 , … , u r } ,U ∩ S \mathscr{U} \cap \mathscr{S} U ∩ S 为空,我们定义以 w S \mathbf{w}_{\mathscr{S}} w S 为条件的 w U \mathbf{w}_{\mathscr{U}} w U 的最近邻密度为:
p ~ ( w U ∣ w S ) = ∏ i = 1 r p ( w ( u i ) ∣ w N ( u i ) ) (4) \tilde{p}(\mathbf{w}_{\mathscr{U}} \mid \mathbf{w}_{\mathscr{S}}) = \prod^{r}_{i=1} p \left(\mathbf{w}(\mathbf{u}_i) \mid \mathbf{w}_{N(\mathbf{u}_i)} \right) \tag{4}
p ~ ( w U ∣ w S ) = i = 1 ∏ r p ( w ( u i ) ∣ w N ( u i ) ) ( 4 )
这个条件密度类似于式 (2)
(除了所有邻居集都是 S \mathscr{S} S 的子集),这确保了正确的条件密度。实际上式 (2) 和式 (4) 足以描述域 D \mathcal{D} D 上任意有限集的联合密度。更准确地说,如果 V = { v 1 , v 2 , … , v n } \mathscr{V}= \{ \mathbf{v}_1, \mathbf{v}_2, \ldots , \mathbf{v}_n\} V = { v 1 , v 2 , … , v n } 是 D \mathcal{D} D 中的任何有限子集,则使用式 (4) 我们获得 w V \mathbf{w}_{\mathscr{V}} w V 的密度为:
p ~ ( w V ) = ∫ p ~ ( w U ∣ w S ) p ~ ( w S ) ∏ { s i ∈ S − V } d ( w ( s i ) ) , where U = V − S (5) \tilde{p}(\mathbf{w}_{\mathscr{V}}) = \int \tilde{p}(\mathbf{w}_{\mathscr{U}} \mid \mathbf{w}_{\mathscr{S}}) \tilde{p}(\mathbf{w}_{\mathscr{S}}) \prod_{\{\mathbf{s}_i \in \mathscr{S}-\mathscr{V} \}} d(\mathbf{w}(\mathbf{s}_i)) \text{ , where } \mathscr{U} = \mathscr{V} - \mathscr{S} \tag{5}
p ~ ( w V ) = ∫ p ~ ( w U ∣ w S ) p ~ ( w S ) { s i ∈ S − V } ∏ d ( w ( s i )) , where U = V − S ( 5 )
如果 U \mathscr{U} U 为空,则式 (4) 意味着式 (5) 中的 p ~ ( w U ∣ w S ) = 1 \tilde{p}(\mathbf{w}_{\mathscr{U}} \mid \mathbf{w}_{\mathscr{S}}) = 1 p ~ ( w U ∣ w S ) = 1 。如果 S − V \mathscr{S}-\mathscr{V} S − V 为空,则不需要式 (5) 中的积分。
这些在有限拓扑上定义的概率密度符合 Kolmogorov 一致性准则
,因此对应于一个 D \mathcal{D} D 上的有效空间过程(参见附录 A3
,可在线获取)。因此,给定任何原始(父)空间过程和任何固定参考集 S \mathscr{S} S ,我们可以使用 S \mathscr{S} S 中的邻居集集合在域 D \mathcal{D} D 上构造一个新过程。我们将此过程称为从原始父过程派生的 “最近邻过程”。如果父过程是 G P ( 0 , C ( ⋅ , ⋅ ∣ θ ) ) \mathcal{GP}(\mathbf{0}, \mathbf{C}(·,· \mid \boldsymbol{\theta})) G P ( 0 , C ( ⋅,⋅ ∣ θ )) ,则:
p ~ ( w U ∣ w S ) = ∏ i = 1 r N ( w ( u i ) ∣ B u i w N ( u i ) , F u i ) = N ( B U w S , F U ) (6) \tilde{p}(\mathbf{w}_{\mathscr{U}} \mid \mathbf{w}_{\mathscr{S}}) = \prod^{r}_{i=1} N(\mathbf{w}(\mathbf{u}_i) \mid \mathbf{B}_{\mathbf{u}_i} \mathbf{w}_{N(\mathbf{u}_i)}, \mathbf{F}_{\mathbf{u}_i}) = N(\mathbf{B}_{\mathscr{U}} \mathbf{w}_{\mathscr{S}}, \mathbf{F}_{\mathscr{U}} ) \tag{6}
p ~ ( w U ∣ w S ) = i = 1 ∏ r N ( w ( u i ) ∣ B u i w N ( u i ) , F u i ) = N ( B U w S , F U ) ( 6 )
对于 D \mathcal{D} D 内 S \mathscr{S} S 外的任何有限集 U = { u 1 , u 2 , … , u r } \mathscr{U}= \{\mathbf{u}_1, \mathbf{u}_2, \ldots , \mathbf{u}_r\} U = { u 1 , u 2 , … , u r } ,其中 B u i \mathbf{B}_{\mathbf{u}_i} B u i 和 F u i \mathbf{F}_{\mathbf{u}_i} F u i 的定义类似于式 (3),基于邻居集 N ( u i ) N(\mathbf{u}_i) N ( u i ) ,F U = diag ( F u 1 , F u 2 , … , F u r ) \mathbf{F}_{\mathscr{U}} = \text{diag}(F_{\mathbf{u}_1}, F_{\mathbf{u}_2}, \ldots , F_{\mathbf{u}_r}) F U = diag ( F u 1 , F u 2 , … , F u r ) ,B U \mathbf{B}_{\mathscr{U}} B U 是一个大小为 n q × k q nq×kq n q × k q 的稀疏矩阵,每行最多有 m q mq m q 个非零元素(参见附录 A4
,可在线获取)。
对于 D \mathcal{D} D 中的任何有限集 V \mathscr{V} V ,p ~ ( w V ) \tilde{p}(\mathbf{w}_{\mathscr{V}}) p ~ ( w V ) 是V \mathscr{V} V 上具有如下互协方差函数的高斯过程实现的密度。
C ~ ( v 1 , v 2 ; θ ) = { C ~ s i , s , if v 1 = s i and v 2 = s j are both in S , B v 1 C ~ N ( v 1 ) , s j if v 1 ∉ S and v 2 = s j ∈ S , B v 1 C ~ N ( v 1 ) , N ( v 2 ) B v 2 ′ + δ δ ( v 1 = v 2 ) F v 1 , if v 1 and v 2 are noth in S \widetilde{\mathbf{C}}\left(\mathbf{v}_1, \mathbf{v}_2 ; \boldsymbol{\theta}\right)=
\begin{cases}
\widetilde{\mathbf{C}}_{\mathbf{s}_i, \mathbf{s}}, \quad \text { if } \mathbf{v}_1=\mathbf{s}_i \text { and } \mathbf{v}_2=\mathbf{s}_j \text { are both in } \mathcal{S}, \\
\mathbf{B}_{\mathbf{v}_1} \widetilde{\mathbf{C}}_{N\left(\mathbf{v}_1\right), \mathbf{s}_j} & \text { if } \mathbf{v}_1 \notin \mathcal{S} \text { and } \mathbf{v}_2=\mathbf{s}_j \in \mathcal{S}, \\
\mathbf{B}_{\mathbf{v}_1} \widetilde{\mathbf{C}}_{N\left(\mathbf{v}_1\right), N\left(\mathbf{v}_2\right)} \mathbf{B}_{\mathbf{v}_2}^{\prime}+\delta \delta_{\left(\mathbf{v}_1=\mathbf{v}_2\right)} \mathbf{F}_{\mathbf{v}_1}, \quad \text { if } \mathbf{v}_1 \text { and } \mathbf{v}_2 \text { are noth in } \mathcal{S}
\end{cases}
C ( v 1 , v 2 ; θ ) = ⎩ ⎨ ⎧ C s i , s , if v 1 = s i and v 2 = s j are both in S , B v 1 C N ( v 1 ) , s j B v 1 C N ( v 1 ) , N ( v 2 ) B v 2 ′ + δ δ ( v 1 = v 2 ) F v 1 , if v 1 and v 2 are noth in S if v 1 ∈ / S and v 2 = s j ∈ S ,
其中 v 1 \mathbf{v}_1 v 1 和 v 2 \mathbf{v}_2 v 2 是 D \mathcal{D} D 中的任意两个位置,C ~ A , B \tilde{\mathbf{C}}_{A,B} C ~ A , B 表示由集合 A A A 和 B B B 中的位置索引的子矩阵 C ~ S \tilde{\mathbf{C}}_{\mathscr{S}} C ~ S ,δ ( v 1 = v 2 ) δ_{(\mathbf{v}_1=\mathbf{v}_2)} δ ( v 1 = v 2 ) 是 Kronecker delta
。附录 A4
(可在线获取)还表明 C ~ ( v 1 , v 2 ∣ θ ) \tilde{\mathbf{C}}(\mathbf{v}_1, \mathbf{v}_2 | \boldsymbol{\theta}) C ~ ( v 1 , v 2 ∣ θ ) 对于勒贝格测度零集合之外的所有 ( v 1 , v 2 ) (\mathbf{v}_1, \mathbf{v}_2) ( v 1 , v 2 ) 对,都是连续的。
这就完成了从父高斯过程 G P ( 0 , C ( ⋅ , ⋅ ∣ θ ) ) \mathcal{GP}(\mathbf{0}, \mathbf{C}(·, · | \boldsymbol{\theta})) G P ( 0 , C ( ⋅,⋅ ∣ θ )) 导出最近邻高斯过程 N N G P ( 0 , C ~ ( ⋅ , ⋅ ∣ θ ) ) \mathcal{NNGP}(\mathbf{0}, \tilde{\mathbf{C}}(·, · | \boldsymbol{\theta})) NN G P ( 0 , C ~ ( ⋅,⋅ ∣ θ )) 的构造。在最近邻高斯过程中,k k k 的大小可以与数据集大小一致,甚至更大。计算复杂度的降低是通过最近邻高斯过程的精度矩阵中的稀疏性实现的。与低秩过程不同,最近邻高斯过程不是退化过程。它是一个正确的、稀疏性归纳的高斯过程,可立即作为分层建模的先验使用,并且正如在下一节中展示的那样,提供了巨大的计算优势。
3. 贝叶斯估计与实现
3.1 分层模型
考虑一个 l l l 个因变量的向量 y ( t ) y(\mathbf{t}) y ( t ) ,在位置 t ∈ D ⊆ R d \mathbf{t} \in \mathcal{D} \subseteq \mathbb{R}^d t ∈ D ⊆ R d 处的一个空间变化回归模型:
y ( t ) = X ( t ) ′ β + Z ( t ) ′ w ( t ) + ε ( t ) (8) y(\mathbf{t}) = \mathbf{X}(\mathbf{t})^{\prime}\boldsymbol{\beta} + \mathbf{Z}(\mathbf{t})^{\prime}\mathbf{w}(\mathbf{t}) + \boldsymbol{\varepsilon}(\mathbf{t}) \tag{8}
y ( t ) = X ( t ) ′ β + Z ( t ) ′ w ( t ) + ε ( t ) ( 8 )
其中 X ( t ) ′ \mathbf{X}(\mathbf{t})^{\prime} X ( t ) ′ 是大小为 l × p l× p l × p 的固定空间位置预测变量矩阵,w ( t ) \mathbf{w}(\mathbf{t}) w ( t ) 是一个 q × 1 q × 1 q × 1 空间过程,该过程形成大小为 l × q l × q l × q 的固定设计矩阵 Z ( t ) ′ \mathbf{Z}(\mathbf{t})^{\prime} Z ( t ) ′ 的系数,ε ( t ) ∼ i . i . d . N ( 0 , D ) \boldsymbol{\varepsilon}(\mathbf{t}) \stackrel{i.i.d.}{\sim} \mathcal{N}(\mathbf{0, D}) ε ( t ) ∼ i . i . d . N ( 0 , D ) 是一个 l × 1 l × 1 l × 1 的白噪声过程,它捕获测量误差或具有扩散矩阵 D D D 的微尺度可变性,我们假设它是对角矩阵,元素为 τ j 2 , j = 1 , 2 , … , l τ_j^2, j= 1, 2, \ldots , l τ j 2 , j = 1 , 2 , … , l 。矩阵 X ( t ) ′ \mathbf{X}(\mathbf{t})^{\prime} X ( t ) ′ 是 p = ∑ i = 1 l p i p = \sum^l_{i =1} p_i p = ∑ i = 1 l p i 的块对角矩阵,其中 1 × p i 1 × p_i 1 × p i 的向量 x i ( t ) ′ \mathbf{x}_i(\mathbf{t})^{\prime} x i ( t ) ′ (可能包括截距)是第 i i i 个块(对于每一个 i = 1 , 2 , … , l i= 1, 2,\ldots, l i = 1 , 2 , … , l )。式 (8)
中的模型蕴含了几个特定的空间模型。例如,让 q = l q = l q = l 和 Z ( t ) ′ = I l × l \mathbf{Z}(\mathbf{t})^{\prime} = \mathbf{I}_{l×l} Z ( t ) ′ = I l × l 会形成一个多变量空间回归模型,其中 w ( t ) \mathbf{w}(\mathbf{t}) w ( t ) 充当空间变化的截距。另一方面,我们可以设想所有系数都在随空间变化,并设置 q = p q= p q = p 且 Z ( t ) ′ = X ( t ) ′ \mathbf{Z}(\mathbf{t})^{\prime} = \mathbf{X}(\mathbf{t})^{\prime} Z ( t ) ′ = X ( t ) ′ 。
对于可扩展性来说,可以替换掉式 (8) 中 w ( t ) \mathbf{w}(\mathbf{t}) w ( t ) 的常规高斯过程先验,我们假设 w ( t ) ∼ N N G P ( 0 , C ~ ( ⋅ , ⋅ ∣ θ ) ) \mathbf{w}(\mathbf{t}) \sim \mathcal{NNGP}(0, \tilde{\mathbf{C}}(·, · | \boldsymbol{\theta})) w ( t ) ∼ NN G P ( 0 , C ~ ( ⋅,⋅ ∣ θ )) 是从父过程 G P ( 0 , C ( ⋅ , ⋅ ∣ θ ) ) \mathcal{GP}(0, \mathbf{C}( ·, · | \boldsymbol{\theta})) G P ( 0 , C ( ⋅,⋅ ∣ θ )) 派生出来的。任何有效的各向同性互协方差函数都可用于构造 C ( ⋅ , ⋅ ∣ θ ) \mathbf{C}(·, · | \boldsymbol{\theta}) C ( ⋅,⋅ ∣ θ ) (参见例如 Gelfand 和 Banerjee 2010 [17] )。为了阐明,设 T = { t 1 , t 2 , … , t n } \mathscr{T}= \{\mathbf{t}_1, \mathbf{t}_2, \ldots , \mathbf{t}_n\} T = { t 1 , t 2 , … , t n } 是已观测响应变量和预测变量的位置集。该集合可以但不必与最近邻高斯过程的参考集合 S = { s 1 , s 2 , … , s k } \mathscr{S}= \{\mathbf{s}_1, \mathbf{s}_2, \ldots , \mathbf{s}_k\} S = { s 1 , s 2 , … , s k } 相交。不失一般性,我们将 T \mathscr{T} T 分成 S ∗ \mathscr{S}^* S ∗ 和 U \mathscr{U} U ,其中 S ∗ = S ∩ T = { s i 1 , s i 2 , … , s i r } \mathscr{S}^{*} = \mathscr{S} \cap \mathscr{T} = \{\mathbf{s}_{i1}, \mathbf{s}_{i2}, \ldots , \mathbf{s}_{ir}\} S ∗ = S ∩ T = { s i 1 , s i 2 , … , s i r } ,s i j = t j , j = 1 , 2 , … , r \mathbf{s}_{i_j}= \mathbf{t}_j,\quad j= 1, 2, \ldots , r s i j = t j , j = 1 , 2 , … , r 且 U = T − S = { t r + 1 , t r + 2 , … , t n } \mathscr{U} =\mathscr{T} - \mathscr{S} = \{ \mathbf{t}_{r+1} , \mathbf{t}_{r+2}, \ldots, \mathbf{t}_n\} U = T − S = { t r + 1 , t r + 2 , … , t n } 。由于 S ∪ T = S ∪ U \mathscr{S} \cup \mathscr{T} = \mathscr{S} \cup \mathscr{U} S ∪ T = S ∪ U ,我们可以根据父过程在 S \mathscr{S} S 和 U \mathscr{U} U 上的实现来完全指定最近邻高斯过程的实现,并分层地表示为 w U ∣ w S ∼ N ( B U w S , F U ) \mathbf{w}_{\mathscr{U}} \mid \mathbf{w}_{\mathscr{S}} \sim \mathcal{N}(\mathbf{B}_{\mathscr{U}} \mathbf{w}_{\mathscr{S}} , \mathbf{F}_{\mathscr{U}}) w U ∣ w S ∼ N ( B U w S , F U ) 和 w S ∼ N ( 0 , C ~ S ) \mathbf{w}_{\mathscr{S}} \sim \mathcal{N}(\mathbf{0}, \tilde{\mathbf{C}}_{\mathscr{S}}) w S ∼ N ( 0 , C ~ S ) 。对于完整的贝叶斯规格,我们进一步指定了 β \boldsymbol{\beta} β 、θ \boldsymbol{\theta} θ 和 τ j 2 τ_j^2 τ j 2 的先验分布。例如,根据惯例先验指定,我们可以得到联合分布:
p ( θ ) × ∏ j = 1 l I G ( τ j 2 ∣ a τ j , b τ j ) × N ( β ∣ μ β , V β ) × N ( w U ∣ B U w S , F U ) × N ( w S ∣ 0 , C ~ S ) × ∏ i = 1 n N ( y ( t i ) ∣ X ( t i ) ′ β + Z ( t i ) ′ w ( t i ) , D ) (9) p(\boldsymbol{\theta}) × \prod^{l}_{j=1} \mathcal{IG}(\tau^{2}_{j} \mid a_{\tau_j}, b_{\tau_j}) × N(\boldsymbol{\beta} \mid \boldsymbol{μ}_{\boldsymbol{\beta}}, \mathbf{V}_{\boldsymbol{\beta}}) × N(\mathbf{w}_{\mathscr{U}} \mid \mathbf{B}_{\mathscr{U}} \mathbf{w}_{\mathscr{S}}, \mathbf{F}_{\mathscr{U}}) × N(\mathbf{w}_{\mathscr{S}} \mid \mathbf{0}, \tilde{\mathbf{C}}_{\mathscr{S}}) × \prod^{n}_{i=1} N(\mathbf{y}(\mathbf{t}_i) \mid \mathbf{X}(\mathbf{t}_i)^{\prime} \boldsymbol{\beta} + \mathbf{Z}(\mathbf{t}_i)^{\prime} \mathbf{w}(\mathbf{t}_i), \mathbf{D}) \tag{9}
p ( θ ) × j = 1 ∏ l I G ( τ j 2 ∣ a τ j , b τ j ) × N ( β ∣ μ β , V β ) × N ( w U ∣ B U w S , F U ) × N ( w S ∣ 0 , C ~ S ) × i = 1 ∏ n N ( y ( t i ) ∣ X ( t i ) ′ β + Z ( t i ) ′ w ( t i ) , D ) ( 9 )
其中 p ( θ ) p(\boldsymbol{\theta}) p ( θ ) 是 θ \boldsymbol{\theta} θ 上的先验,I G ( τ j 2 ∣ a τ j , b τ j ) \mathcal{IG}(\tau^{2}_{j} \mid a_{\tau_j}, b_{\tau_j}) I G ( τ j 2 ∣ a τ j , b τ j ) 表示逆 Gamma 密度。
3.2 参数估计与空间预测
为了描述用于估计 式 (9)
的 Gibbs 采样器,我们类似地定义 y = ( y ( t 1 ) ′ , y ( t 2 ) ′ , … , y ( t n ) ′ ) ′ \mathbf{y} = (\mathbf{y}(\mathbf{t}_1)^{\prime}, \mathbf{y}(\mathbf{t}_2)^{\prime}, \ldots , \mathbf{y}(\mathbf{t}_n)^{\prime})^{\prime} y = ( y ( t 1 ) ′ , y ( t 2 ) ′ , … , y ( t n ) ′ ) ′ ,以及 w \mathbf{w} w 和 ε \boldsymbol{\varepsilon} ε 。此外,引入 X = [ X ( t 1 ) : X ( t 2 ) : … : X ( t n ) ] ′ \mathbf{X} = [\mathbf{X}(\mathbf{t}_1) : \mathbf{X}(\mathbf{t}_2) : \ldots : \mathbf{X}(\mathbf{t}_n)]' X = [ X ( t 1 ) : X ( t 2 ) : … : X ( t n ) ] ′ , Z = diag ( Z ( t 1 ) ′ , … , Z ( t n ) ′ ) \mathbf{Z} = \text{diag}(\mathbf{Z}(\mathbf{t}_1)^{\prime}, \ldots , \mathbf{Z}(\mathbf{t}_n)^{\prime}) Z = diag ( Z ( t 1 ) ′ , … , Z ( t n ) ′ ) ,以及 D n = Cov ( ε ) = diag ( D , … , D ) \mathbf{D}_n= \text{Cov}(\boldsymbol{\varepsilon}) = \text{diag}(D, \ldots, D) D n = Cov ( ε ) = diag ( D , … , D ) 。
(1)固定效应参数的估计
β \boldsymbol{\beta} β 的完整条件分布是 N ( V β ∗ μ β ∗ , V β ∗ ) \mathcal{N}(\mathbf{V}_{\boldsymbol{\beta}}^{∗} \boldsymbol{μ}_{\boldsymbol{\beta}}^{∗}, \mathbf{V}_{\boldsymbol{\beta}}^{∗}) N ( V β ∗ μ β ∗ , V β ∗ ) ,其中 V β ∗ = ( V β − 1 + X ′ D n − 1 X ) − 1 \mathbf{V}_{\boldsymbol{\beta}}^{∗} = (\mathbf{V}_{\boldsymbol{\beta}}^{-1} + \mathbf{X}^{\prime} \mathbf{D}_{n}^{−1} \mathbf{X})^{−1} V β ∗ = ( V β − 1 + X ′ D n − 1 X ) − 1 , μ β ∗ = ( V β − 1 μ β + X ′ D n − 1 ( y − Z w ) ) \boldsymbol{μ}_{\boldsymbol{\beta}}^{∗ }= (\mathbf{V}_{\boldsymbol{\beta}}^{−1} \boldsymbol{μ}_{\boldsymbol{\beta}} + \mathbf{X}^{\prime} \mathbf{D}_{n}^{−1} (\mathbf{y − Zw})) μ β ∗ = ( V β − 1 μ β + X ′ D n − 1 ( y − Zw )) 。
(2)噪声超参数的估计
τ j 2 \tau^{2}_{j} τ j 2 的逆伽马先验导致共轭完全条件分布 I G ( a τ j + n 2 , b τ j + 1 2 ( y ∗ j − X ∗ j β − Z ∗ j w ) ′ ( y ∗ j − X ∗ j β − Z ∗ j w ) \mathcal{IG}(a_{\tau_j} + \frac{n}{2}, b_{\tau_j} + \frac{1}{2} (\mathbf{y}_{∗ j} − \mathbf{X}_{∗j} \boldsymbol{\beta} − \mathbf{Z}_{∗j} \mathbf{w})^{\prime} (\mathbf{y}_{*j} − \mathbf{X}_{*j} \boldsymbol{\beta} − \mathbf{Z}_{*j} \mathbf{w}) I G ( a τ j + 2 n , b τ j + 2 1 ( y ∗ j − X ∗ j β − Z ∗ j w ) ′ ( y ∗ j − X ∗ j β − Z ∗ j w ) ,其中 y ∗ j y^{*j} y ∗ j 是指包含 y ( t i ) y(\mathbf{t}_i) y ( t i ) 的第 j j j 个坐标的 n × 1 n×1 n × 1 向量,X ∗ j \mathbf{X}^{*j} X ∗ j 和 Z ∗ j Z^{*j} Z ∗ j 分别是相应的固定和空间效应协变量矩阵。
(3)协方差超参数的估计
为了更新 θ \boldsymbol{\theta} θ ,我们使用目标密度为 p ( θ ) × N ( w S ∣ 0 , C ~ S ) × N ( w U ∣ B U w S , F U ) p(\boldsymbol{\theta}) × N(\mathbf{w}_{\mathscr{S}} \mid \mathbf{0}, \tilde{\mathbf{C}}_{\mathscr{S}}) × N(\mathbf{w}_{\mathscr{U}} \mid \mathbf{B}_{\mathscr{U}} \mathbf{w}_{\mathscr{S}} , \mathbf{F}_{\mathscr{U}}) p ( θ ) × N ( w S ∣ 0 , C ~ S ) × N ( w U ∣ B U w S , F U ) 的随机游走 Metropolis 步骤,其中:
N ( w S ∣ 0 , C ~ S ) = ∏ i = 1 k N ( w ( s i ) ∣ B s i w N ( s i ) , F s i ) N ( w U ∣ B U w S , F U ) = ∏ i = r + 1 n N ( w ( t i ) ∣ B t i w N ( t i ) , F t i ) (10) \begin{align*}
&N(\mathbf{w}_{\mathscr{S}} \mid \mathbf{0}, \tilde{\mathbf{C}}_{\mathscr{S}}) = \prod^{k}_{i=1} N(\mathbf{w}(\mathbf{s}_i) \mid \mathbf{B}_{\mathbf{s}_i} \mathbf{w}_{N(\mathbf{s}_i)}, \mathbf{F}_{\mathbf{s}_i})\\
&N(\mathbf{w}_{\mathscr{U}} \mid \mathbf{B}_{\mathscr{U}} \mathbf{w}_{\mathscr{S}}, \mathbf{F}_{\mathscr{U}}) = \prod^{n}_{i=r+1} N(\mathbf{w} (\mathbf{t}_i) \mid \mathbf{B}_{\mathbf{t}_i} \mathbf{w}_{N(\mathbf{t}_i)}, \mathbf{F}_{\mathbf{t}_i})
\end{align*} \tag{10}
N ( w S ∣ 0 , C ~ S ) = i = 1 ∏ k N ( w ( s i ) ∣ B s i w N ( s i ) , F s i ) N ( w U ∣ B U w S , F U ) = i = r + 1 ∏ n N ( w ( t i ) ∣ B t i w N ( t i ) , F t i ) ( 10 )
可以在不进行任何 n n n 维矩阵运算的情况下评估式 (10) 右侧乘积符号下的每个分量密度。
由于 w U ∣ w S \mathbf{w}_{\mathscr{U}} \mid \mathbf{w}_{\mathscr{S}} w U ∣ w S 的组分是独立的,我们可以从其完整条件 N ( V t i μ t i , V t i ) N(\mathbf{V}_{\mathbf{t}_i} \boldsymbol{μ}_{\mathbf{t}_i}, \mathbf{V}_{\mathbf{t}_i}) N ( V t i μ t i , V t i ) 更新 w ( t i ) \mathbf{w}(\mathbf{t}_i) w ( t i ) ,其中 i = r + 1 , r + 2 , … , n i= r+ 1, r+ 2,\ldots, n i = r + 1 , r + 2 , … , n , V t i = ( Z ( t i ) D − 1 Z ( t i ) ′ + F t i − 1 ) − 1 \mathbf{V}_{\mathbf{t}_i} = (\mathbf{Z}(\mathbf{t}_i) \mathbf{D}^{−1} \mathbf{Z}(\mathbf{t}_i)^{\prime} + \mathbf{F}_{\mathbf{t}_i}^{−1})^{−1} V t i = ( Z ( t i ) D − 1 Z ( t i ) ′ + F t i − 1 ) − 1 和 μ t i = Z ( t i ) D − 1 ( y ( t i ) − X ( t i ) ′ β ) + F t i − 1 B t i w N ( t i ) \boldsymbol{μ}_{\mathbf{t}_i} = \mathbf{Z}(\mathbf{t}_i) \mathbf{D}^{−1} (\mathbf{y}(\mathbf{t}_i) − \mathbf{X}(\mathbf{t}_i)^{\prime} \boldsymbol{\beta}) + \mathbf{F}_{\mathbf{t}_i}^{−1} \mathbf{B}_{\mathbf{t}_i} \mathbf{w}_{N(\mathbf{t}_i)} μ t i = Z ( t i ) D − 1 ( y ( t i ) − X ( t i ) ′ β ) + F t i − 1 B t i w N ( t i ) 。最后,我们逐一更新 w S \mathbf{w}_{\mathscr{S}} w S 的组件。
对于 D \mathcal{D} D 中的任意两个位置 s \mathbf{s} s 和 t \mathbf{t} t ,如果 s ∈ N ( t ) \mathbf{s} \in N(\mathbf{t}) s ∈ N ( t ) 并且是 N ( t ) N(\mathbf{t}) N ( t ) 的第 l l l 个分量,即 s = N ( t ) ( l ) \mathbf{s} = N(\mathbf{t})(l) s = N ( t ) ( l ) ,则将 B t , s \mathbf{B_{t,s}} B t , s 定义为 l × l l× l l × l 的子矩阵,由 B t \mathbf{B_t} B t 的列 ( l − 1 ) q + 1 , ( l − 1 ) q + 2 , … , l q (l−1)q+ 1, (l−1)q + 2, \ldots , lq ( l − 1 ) q + 1 , ( l − 1 ) q + 2 , … , lq 组成。让 U ( s i ) = { t ∈ S ∪ T ∣ s i ∈ N ( t ) } U(\mathbf{s}_i) = \{\mathbf{t} \in \mathscr{S} \cup \mathscr{T} \mid \mathbf{s}_i \in N(\mathbf{t})\} U ( s i ) = { t ∈ S ∪ T ∣ s i ∈ N ( t )} ,并且对于每个 t ∈ U ( s i ) \mathbf{t} \in U(\mathbf{s}_i) t ∈ U ( s i ) 定义 a t , s i = w ( t ) − Σ s ∈ N ( t ) , s ≠ s i B t , s w ( s ) \mathbf{a}_{\mathbf{t},\mathbf{s}_i} =\mathbf{w}(\mathbf{t}) − \Sigma_{s \in N(\mathbf{t}),\mathbf{s} \neq \mathbf{s}_{i}} \mathbf{B}_{\mathbf{t,s}} \mathbf{w}(\mathbf{s}) a t , s i = w ( t ) − Σ s ∈ N ( t ) , s = s i B t , s w ( s ) 。然后,对于 i = 1 , 2 , … , k i= 1, 2, \ldots , k i = 1 , 2 , … , k ,我们有完整的条件 s s i ∣ ⋅ ∼ N ( V s i μ s + i , V s i ) \mathbf{s}_{\mathbf{s}_i} \mid · \sim \mathcal{N}(\mathbf{V}_{\mathbf{s}_i} \boldsymbol{\mu}_{\mathbf{s}+i}, \mathbf{V}_{\mathbf{s}_i}) s s i ∣ ⋅ ∼ N ( V s i μ s + i , V s i ) ,其中
V s i = ( In ( s i ∈ S ∗ ) Z ( s i ) D − 1 Z ( s i ) ′ + F s i − 1 + Σ t ∈ U ( s i ) B t , s i ′ F t − 1 B t , s i ) − 1 μ s i = In ( s i ∈ S ∗ ) Z ( s i ) D − 1 ( y ( s i ) − X ( s i ) ′ β ) + F s i − 1 B s i w N ( s i ) + Σ t ∈ U ( s i ) B t , s i ′ F t − 1 a t , s i \begin{align*}
&\mathbf{V}_{\mathbf{s}_i} = (\text{In}(\mathbf{s}_i \in \mathscr{S}^∗) \mathbf{Z}(\mathbf{s}_i) \mathbf{D}^{−1} \mathbf{Z}(\mathbf{s}_i)^{\prime} + \mathbf{F}_{\mathbf{s}_i}^{ −1} + \Sigma_{\mathbf{t} \in U(\mathbf{s}_i)} \mathbf{B}_{\mathbf{t}, \mathbf{s}_i}^{\prime} \mathbf{F}_{\mathbf{t}}^{−1} \mathbf{B}_{\mathbf{t}, \mathbf{s}_i})^{−1} \\
&\boldsymbol{\mu}_{\mathbf{s}_i} = \text{In}(\mathbf{s}_i \in \mathscr{S}^∗) \mathbf{Z}(\mathbf{s}_i) \mathbf{D}^{−1} (\mathbf{y}(\mathbf{s}_i) − \mathbf{X}(\mathbf{s}_i)^{\prime} \boldsymbol{\beta}) + \mathbf{F}_{\mathbf{s}_i}^{−1} \mathbf{B}_{\mathbf{s}_i} \mathbf{w}_{N(\mathbf{s}_i)} + \Sigma_{\mathbf{t} \in U (\mathbf{s}_i)} \mathbf{B}_{\mathbf{t}, \mathbf{s}_i}^{\prime} \mathbf{F}_{\mathbf{t}}^{−1} \mathbf{a}_{\mathbf{t},\mathbf{s}_i}
\end{align*}
V s i = ( In ( s i ∈ S ∗ ) Z ( s i ) D − 1 Z ( s i ) ′ + F s i − 1 + Σ t ∈ U ( s i ) B t , s i ′ F t − 1 B t , s i ) − 1 μ s i = In ( s i ∈ S ∗ ) Z ( s i ) D − 1 ( y ( s i ) − X ( s i ) ′ β ) + F s i − 1 B s i w N ( s i ) + Σ t ∈ U ( s i ) B t , s i ′ F t − 1 a t , s i
其中 In ( ⋅ ) \text{In}(·) In ( ⋅ ) 表示指示函数。因此,w ′ w^{\prime} w ′ 也可以在不需要存储或分解任何 n × n n × n n × n 矩阵的情况下更新。
(4)空间预测
假设 t \mathbf{t} t 是我们打算在给定 X ( t ) \mathbf{X}(\mathbf{t}) X ( t ) 和 Z ( t ) \mathbf{Z}(\mathbf{t}) Z ( t ) 的情况下预测 y ( t ) \mathbf{y}(\mathbf{t}) y ( t ) 的新位置。用于估计的 Gibbs 采样器还生成后验样本 w S ∪ T ∣ y \mathbf{w}_{\mathscr{S} \cup \mathscr{T}} \mid \mathbf{y} w S ∪ T ∣ y 。所以,如果 t ∈ S ∪ T \mathbf{t} \in \mathscr{S} \cup \mathscr{T} t ∈ S ∪ T ,那么我们简单地从 N ( X ( t ) ′ β + Z ( t ) ′ w ( t ) , D ) N(\mathbf{X}(\mathbf{t})^{\prime}\boldsymbol{\beta} + \mathbf{Z}(\mathbf{t})^{\prime}\mathbf{w}(\mathbf{t}), \mathbf{D}) N ( X ( t ) ′ β + Z ( t ) ′ w ( t ) , D ) 得到 y ( t ) ∣ y \mathbf{y}(\mathbf{t})|\mathbf{y} y ( t ) ∣ y 的样本。如果 t t t 在 S ∪ T \mathscr{S} \cup \mathscr{T} S ∪ T 之外,那么我们从其完整条件 N ( B t w S , F t ) N(\mathbf{B_t} \mathbf{w}_{\mathscr{S}}, \mathbf{F_t}) N ( B t w S , F t ) 生成 w ( t ) \mathbf{w}(\mathbf{t}) w ( t ) 的样本,随后生成 y ( t ) ∣ y \mathbf{y}(\mathbf{t}) \mid \mathbf{y} y ( t ) ∣ y 的后验样本。
3.3 计算复杂度
实施 第 3.2 节
中的最近邻高斯过程模型表明,无需任何大型矩阵运算即可完成 Gibbs 采样器的整个传递。式 (9) 和完整的地统计分层模型之间的唯一区别是空间过程被建模为最近邻高斯过程先验而不是标准高斯过程。为了进行比较,我们提供了 flops 计数的粗略估计,以在采样器的每次迭代中生成 θ \boldsymbol{\theta} θ 和 w \mathbf{w} w 。我们仅根据样本大小 n n n 、参考集大小 k k k 和邻居集大小 m m m 来表示计算复杂度,假设其他维度很小。对于所有位置,t ∈ S ∪ T \mathbf{t} \in \mathscr{S} \cup \mathscr{T} t ∈ S ∪ T 、B t \mathbf{B_t} B t 和 F t \mathbf{F_t} F t 可以使用 O ( m 3 ) \mathcal{O}(m^3) O ( m 3 ) flops 来计算。因此,从式 (10) 中很容易看出可以使用 O ( ( n + k ) m 3 ) \mathcal{O}((n+k)m^3) O (( n + k ) m 3 ) 次 flops 计算 p ( θ ∣ ⋅ ) p(\boldsymbol{\theta}|·) p ( θ ∣ ⋅ ) 。为 w \mathbf{w} w 和 θ \boldsymbol{\theta} θ 生成一组后验样本的所有后续计算都需要大约 O ( ( n + k ) m 2 ) \mathcal{O}((n+k) m^2) O (( n + k ) m 2 ) 次 flops 。
因此,总 flops 的阶数为 ( n + k ) m 3 (n+k)m^3 ( n + k ) m 3 ,因此与 S ∪ T \mathscr{S} \cup \mathscr{T} S ∪ T 中的位置总数成线性关系。这确保了最近邻高斯过程对大型数据集的可扩展性。将其与具有密集相关矩阵的完整高斯过程模型进行比较,后者需要 O ( n 3 ) \mathcal{O}(n^3) O ( n 3 ) flops 来在每次迭代中更新 w \mathbf{w} w 。第 5.1 节
和在线附录 A6
中的模拟结果表明,通常具有非常小的 m ( ≈ 10 ) m(\approx 10) m ( ≈ 10 ) 值的最近邻高斯过程模型提供的推断几乎与完整的地统计模型无法区分。因此,对于较大的 n n n ,flops 计数会大大减少,并且相对于 k k k 是线性的,从而保证了即使 k ≈ n k \approx n k ≈ n 也存在可行实现。
这提供了相对于低秩模型的可扩展性,在低秩模型中,计算成本是 “结” 数量的二次方,从而限制了结集的大小。此外,完整的地统计模型需要存储 n × n n × n n × n 的距离矩阵,这可能会耗尽大型数据集的存储资源。最近邻高斯过程模型只需要每个位置的邻居之间的距离矩阵,从而存储 n + k n+ k n + k 小矩阵,每个矩阵的阶数为 m × m m× m m × m 。
3.4 模型比较与超参数的选择
如第 2 节
所述,给定任何父高斯过程和任何固定参考位置集,我们可以构建有效的最近邻高斯过程。最近邻高斯过程的有限维似然最终取决于参考集 S \mathscr{S} S 的选择和每个 N ( s i ) N(\mathbf{s}_i) N ( s i ) 的大小,即 m m m 。
(1)参考点集 S \mathcal{S} S 的选择
选择参考集类似于为预测过程选择结点。与低秩模型中的“结”数量不同,S \mathscr{S} S 的大小不会阻碍计算的可扩展性。由于最近邻高斯过程模型中的 flop 计数仅随 S \mathscr{S} S 的大小线性增加,因此 S \mathscr{S} S 中的位置数量可以很大,对于 S \mathscr{S} S 的选择可以更灵活。
跨越整个域的网格上的点似乎是 S \mathscr{S} S 的合理选择。例如,我们可以使用密集网格构建一个大型 S \mathscr{S} S 来提高性能,而不会对计算成本产生不利影响。对于大型数据集,另一个可能更简单的选项是简单地固定 S = T \mathscr{S} =\mathscr{T} S = T ,即观测到的位置集。这种选择通过避免在 Gibbs 采样器中对 w \mathbf{w} w 进行额外采样,进一步降低了计算成本。我们的实证调查(参见 第 5.1 节
)表明,选择 S = T \mathscr{S}=\mathscr{T} S = T 提供的推断与选择 S \mathscr{S} S 为大型数据集域上的网格几乎没有区别。
Stein、Chi 和 Welty (2004)[44] 以及 Eidsvik 等 (2014) [12] 提出使用三明治方差估计器来评估基于邻居的伪似然推断能力。 Shaby (2012) [36] 开发了一种采样后的三明治方差调整,用于使用伪似然法的准贝叶斯方法参数的后验可信区间。然而,用于获得三明治方差估计量的渐近结果是基于难以在具有不规则放置的数据点的空间设置中验证的假设。
此外,我们将最近邻高斯过程视为用于拟合数据的独立模型,而不是原始高斯过程的近似值。因此,我们避免进行这种三明治方差调整。相反,我们可以简单地使用任何标准模型比较指标,例如偏差信息标准(DIC;Spiegelhalter 等,2002 年 [38] )、GPD 分数(Gelfand 和 Ghosh,1998 年 [19] )或均方根预测误差/变异系数的均方根误差(RMSPE/RMSECV;Yeniay 和 Goktas 2002 [50] )比较最近邻高斯过程和任何其他候选模型的性能。
(2)邻居数量 m m m 的选择
相同的模型比较指标也用于选择 m m m 。然而,正如我们稍后在第 5.1 节
中说明的那样,通常 10 10 10 到 15 15 15 之间的小值 m m m 会产生与完整地统计模型相当的性能。虽然较大的 m m m 可能有利于海量数据集,但也许在不同设计方案下,它会比可比较推断的低秩模型中的结数小得多(参见第 5.1 节)。
4 改进的最近邻高斯过程模型和算法
4.1 使用稀疏 Cholesky 对 w 进行块更新
第 3.2 节
中详述的 Gibbs 采样算法对于每次迭代具有线性 flop 计数的大型数据集非常有效。但是,由于 w S \mathbf{w}_{\mathscr{S}} w S 中元素的顺序更新,它有时会遇到收敛速度慢的问题。顺序更新的替代品是对 w S \mathbf{w}_{\mathscr{S}} w S 进行块更新。我们选择 S = T \mathscr{S} =\mathscr{T} S = T 使得对于所有 i = 1 , 2 , … , n i= 1, 2, \ldots , n i = 1 , 2 , … , n ,s i = t i \mathbf{s}_i = \mathbf{t}_i s i = t i ;并且我们用 w \mathbf{w} w 表示 w S = w T \mathbf{w}_{\mathscr{S}} = \mathbf{w}_{\mathscr{T}} w S = w T 。然后,
w ∣ ⋅ ∼ N ( V S Z ′ D n − 1 ( y − X β ) , V S ) (11) \mathbf{w} \mid \cdot \sim \mathcal{N}(\mathbf{V}_{\mathscr{S}} \mathbf{Z}^{\prime} \mathbf{D}_n^{-1} (\mathbf{y} − \mathbf{X} \boldsymbol{\beta}), \mathbf{V}_{\mathscr{S}}) \tag{11}
w ∣ ⋅ ∼ N ( V S Z ′ D n − 1 ( y − X β ) , V S ) ( 11 )
其中 V S = ( Z ′ D n − 1 Z + C ~ S − 1 ) − 1 \mathbf{V}_{\mathscr{S}} = (\mathbf{Z}^{\prime} \mathbf{D}_n^{-1} \mathbf{Z} + \tilde{\mathbf{C}}_{\mathscr{S}}^{ −1})^{−1} V S = ( Z ′ D n − 1 Z + C ~ S − 1 ) − 1 。
回想一下 C ~ S − 1 \tilde{\mathbf{C}}_{\mathscr{S}}^{-1} C ~ S − 1 是稀疏的。由于 Z \mathbf{Z} Z 和 D n \mathbf{D}_n D n 是块对角的,V S − 1 \mathbf{V}^{-1}_{\mathscr{S}} V S − 1 保留了 C ~ S − 1 \tilde{\mathbf{C}}^{-1}_{\mathscr{S}} C ~ S − 1 的稀疏性。因此, C ~ S − 1 \tilde{\mathbf{C}}^{-1}_{\mathscr{S}} C ~ S − 1 的稀疏 Cholesky 分解将有效地产生 V S \mathbf{V}_{\mathscr{S}} V S 的 Cholesky 因子。这将促进 Gibbs 采样器中 w \mathbf{w} w 的块更新。
4.2 响应的最近邻高斯过程模型
另一种可能的方法涉及响应 y ( s ) \mathbf{y} (\mathbf{s}) y ( s ) 的最近邻高斯过程模型。
如果 w ( s ) \mathbf{w}(\mathbf{s}) w ( s ) 是高斯过程,那么 y ( s ) = Z ( s ) ′ w ( s ) + ε \mathbf{y}(\mathbf{s}) = \mathbf{Z}(\mathbf{s})^{\prime}\mathbf{w}(\mathbf{s}) + \boldsymbol{\varepsilon} y ( s ) = Z ( s ) ′ w ( s ) + ε 也是(不失一般性,我们假设 β = 0 \boldsymbol{\beta}= 0 β = 0 )。可以直接将最近邻高斯过程用于 y ( s ) \mathbf{y}(\mathbf{s}) y ( s ) 而不是 w ( s ) \mathbf{w}(\mathbf{s}) w ( s ) 。也就是说,我们从父高斯过程 G P ( 0 , Σ ( ⋅ , ⋅ ∣ θ ) ) \mathcal{GP}(\mathbf{0}, \boldsymbol{\Sigma}(·, · | \boldsymbol{\theta})) G P ( 0 , Σ ( ⋅,⋅ ∣ θ )) 导出 y ( s ) ∼ N N G P ( 0 , Σ ~ ( ⋅ , ⋅ ) ) \mathbf{y}(\mathbf{s}) \sim \mathcal{NNGP}(\mathbf{0}, \tilde{\boldsymbol{\Sigma}}(·, ·)) y ( s ) ∼ NN G P ( 0 , Σ ~ ( ⋅,⋅ )) 。类似于第 3 节
的 Gibbs 采样器现在享有避免 w \mathbf{w} w 的完整条件的额外优势。这导致 Vecchia (1988)[46] 和 Stein、Chi 和 Welty (2004)[44] 的贝叶斯模拟,但排除了对空间残差表面 w ( s ) \mathbf{w}(\mathbf{s}) w ( s ) 的推断。对 w ( s ) \mathbf{w}(\mathbf{s}) w ( s ) 建模提供了对剩余空间表面的额外洞察,并且通常对于识别潜在协变量或引出无法解释的空间模式很重要。 Vecchia (1992) [47] 在空间模型上使用了最近邻近似值来观测除了通常的空间分量 ( w ) (\mathbf{w}) ( w ) 之外还具有独立测量误差 (nuggets) 的观测值 ( y ) (\mathbf{y}) ( y ) 。但是,使用这种方法可能无法恢复 w \mathbf{w} w 。例如,对于某些 w ( s ) ∼ G P ( 0 , C ( ⋅ , ⋅ ∣ θ ) ) \mathbf{w}(\mathbf{s}) \sim \mathcal{GP}(\mathbf{0}, \mathbf{C}(·,· | \boldsymbol{\theta})) w ( s ) ∼ G P ( 0 , C ( ⋅,⋅ ∣ θ )) 和白噪声过程 ε ( s ) \boldsymbol{\varepsilon}(\mathbf{s}) ε ( s ) ,具有块金效应的单变量平稳过程 y ( s ) \mathbf{y(s)} y ( s ) 可以分解为 y ( s ) = w ( s ) + ε ( s ) \mathbf{y(s)} = \mathbf{w(s)} + \boldsymbol{ε}(\mathbf{s}) y ( s ) = w ( s ) + ε ( s ) (令 β = 0 \boldsymbol{β}= \mathbf{0} β = 0 )。 如果 y = w + ε \mathbf{y} = \mathbf{w} + \boldsymbol{\varepsilon} y = w + ε ,其中 w ∼ N ( 0 , C ) \mathbf{w} \sim N(\mathbf{0, C}) w ∼ N ( 0 , C ) ,ε ∼ N ( 0 , τ 2 I n ) \boldsymbol{\varepsilon} \sim \mathcal{N}(\mathbf{0}, \boldsymbol{τ}^2 \mathbf{I}_n) ε ∼ N ( 0 , τ 2 I n ) ,则 cov ( y ) = C + τ 2 I = Σ \text{cov}(\mathbf{y}) = \mathbf{C} + \boldsymbol{τ}^2 \mathbf{I} = \boldsymbol{\Sigma} cov ( y ) = C + τ 2 I = Σ ,Σ \boldsymbol{\Sigma} Σ 的所有特征值都大于 τ 2 \boldsymbol{τ}^2 τ 2 ,并且 cov ( w ∣ y ) = τ 2 I n − τ 4 Σ − 1 \text{cov}( \mathbf{w | y}) = \boldsymbol{\tau}^2 \mathbf{I}_n − \boldsymbol{τ}^4 \boldsymbol{\Sigma}^{−1} cov ( w∣y ) = τ 2 I n − τ 4 Σ − 1 。然而,对于 y ( s ) ∼ N N G P ( 0 , Σ ~ ( ⋅ , ⋅ ) ) \mathbf{y}(\mathbf{s}) \sim \mathcal{NNGP}(\mathbf{0}, \tilde{\boldsymbol{\Sigma}}(·, ·)) y ( s ) ∼ NN G P ( 0 , Σ ~ ( ⋅,⋅ )) ,Σ ~ \tilde{\boldsymbol{\Sigma}} Σ ~ 的特征值可能小于 τ 2 \boldsymbol{\tau}^2 τ 2 ,因此对于每个 τ 2 > 0 \boldsymbol{\tau}^2 > 0 τ 2 > 0 和 p ( w ∣ y ) p(\mathbf{w | y}) p ( w∣y ) 不再明确定义。
通过使用 w \mathbf{w} w 的最近邻高斯过程先验,如式 (9) ,然后积分出 w \mathbf{w} w ,可以获得一个不同的模型。由此产生的似然是 N ( y ∣ X β , Σ y ) \mathcal{N}(\mathbf{y} \mid \mathbf{X} \boldsymbol{\beta}, \boldsymbol{\Sigma}_{\mathbf{y}}) N ( y ∣ X β , Σ y ) ,其中 Σ y = Z C ~ S Z ′ + D n \boldsymbol{\Sigma}_{\mathbf{y}}= \mathbf{Z} \tilde{\mathbf{C}}_{\mathscr{S}} \mathbf{Z}^{\prime} + \mathbf{D}_n Σ y = Z C ~ S Z ′ + D n 并且贝叶斯规范是使用 β \boldsymbol{\beta} β 、τ j 2 \tau^{2}_{j} τ j 2 和 θ \boldsymbol{\theta} θ 的先验完成的,如式 (9) 所示。该模型极大地减少了 Gibbs 采样器中的变量数量,同时保留了父模型中的块金效应。我们可以为边缘化模型中的参数生成如下所示的完整条件,:
β ∣ y , ϕ ∼ N ( ( V β − 1 + X ′ Σ y − 1 X ) − 1 ( V β − 1 μ β + X ′ Σ y − 1 y ) , ( V β − 1 + X ′ Σ y − 1 X ) − 1 ) 。 \boldsymbol{\beta} \mid \mathbf{y},\boldsymbol{\phi} \sim \mathcal{N}(( \mathbf{V}_{\boldsymbol{\beta}}^{−1} + \mathbf{X}^{\prime} \boldsymbol{\Sigma}_\mathbf{y}^{-1} \mathbf{X})^{-1} (\mathbf{V}_{\boldsymbol{\beta}}^{-1} \boldsymbol{μ}_{\boldsymbol{\beta}} + \mathbf{X}^{\prime} \boldsymbol{\Sigma}_{\mathbf{y}}^{-1} \mathbf{y}), (\mathbf{V}_{\boldsymbol{\beta}}^{-1} + \mathbf{X}^{\prime} \boldsymbol{\Sigma}_{\mathbf{y}}^{-1} \mathbf{X})^{-1})。
β ∣ y , ϕ ∼ N (( V β − 1 + X ′ Σ y − 1 X ) − 1 ( V β − 1 μ β + X ′ Σ y − 1 y ) , ( V β − 1 + X ′ Σ y − 1 X ) − 1 ) 。
很难从 Σ y − 1 \boldsymbol{\Sigma}_{\mathbf{y}}^{-1} Σ y − 1 中分解出 τ j 2 \tau^{2}_{j} τ j 2 ,因此关于任何标准先验的共轭性都会丢失。对于任何易于处理的先验 p ( θ ) p(\boldsymbol{\theta}) p ( θ ) ,针对 θ \boldsymbol{\theta} θ 的 Metropolis 块更新都是可行的。这涉及计算 X ′ Σ y − 1 X \mathbf{X}^{\prime} \boldsymbol{\Sigma}_{\mathbf{y}}^{-1}\mathbf{X} X ′ Σ y − 1 X 、X ′ Σ y − 1 y \mathbf{X}^{\prime}\boldsymbol{\Sigma}_{\mathbf{y}}^{-1} \mathbf{y} X ′ Σ y − 1 y 和 ( y − X β ) ′ Σ y − 1 ( y − X β ) (\mathbf{y} − \mathbf{X} \boldsymbol{\beta})^{\prime}\boldsymbol{\Sigma}_{\mathbf{y}}^{-1} (\mathbf{y} − \mathbf{X} \boldsymbol{\beta}) ( y − X β ) ′ Σ y − 1 ( y − X β ) 。
由于 Σ y − 1 = D n − 1 − D n − 1 Z ( C ~ S − 1 + Z ′ D n − 1 Z ) − 1 Z ′ D n − 1 = D n − 1 − D n − 1 Z V S Z ′ D n − 1 \boldsymbol{\Sigma}_{\mathbf{y}}^{-1} = \mathbf{D}_n^{-1} − \mathbf{D}_n^{-1} \mathbf{Z}(\tilde{\mathbf{C}}^{-1}_{\mathscr{S}} + \mathbf{Z}^{\prime} \mathbf{D}_n^{-1} \mathbf{Z})^{-1} \mathbf{Z}^{\prime} \mathbf{D}_n^{-1} = \mathbf{D}_n^{-1} − \mathbf{D}_n^{-1} \mathbf{Z} \mathbf{V}_{\mathscr{S}} \mathbf{Z}^{\prime} \mathbf{D}_n^{-1} Σ y − 1 = D n − 1 − D n − 1 Z ( C ~ S − 1 + Z ′ D n − 1 Z ) − 1 Z ′ D n − 1 = D n − 1 − D n − 1 Z V S Z ′ D n − 1 ,其中 V S \mathbf{V}_{\mathscr{S}} V S 由式 (11)
给出,V S − 1 \mathbf{V}^{−1}_{\mathscr{S}} V S − 1 的稀疏 Cholesky 分解将是有益的。我们从 p ( w ∣ y ) = ∫ p ( w ∣ θ , β , { τ j 2 } , y ) p ( θ , β , { τ j 2 } ∣ y ) p(\mathbf{w} \mid \mathbf{y}) = \int p(\mathbf{w} \mid \boldsymbol{\theta}, \boldsymbol{\beta}, \{\tau^{2}_{j}\}, \mathbf{y}) p(\boldsymbol{\theta}, \boldsymbol{\beta}, \{\tau^{2}_{j}\} \mid \mathbf{y}) p ( w ∣ y ) = ∫ p ( w ∣ θ , β , { τ j 2 } , y ) p ( θ , β , { τ j 2 } ∣ y ) 使用组合采样为 w \mathbf{w} w 抽取后验样本,我们从 p ( w ∣ θ ( g ) , β ( g ) , { τ j 2 ( g ) } , y ) p(\mathbf{w} \mid \boldsymbol{\theta}^{(g)}, \boldsymbol{\beta}^{(g)}, \{\tau_{j}^{2(g)} \}, \mathbf{y}) p ( w ∣ θ ( g ) , β ( g ) , { τ j 2 ( g ) } , y ) 中为每个采样的参数一对一抽取 w ( g ) \mathbf{w}^{(g)} w ( g ) 。
在式 (9)
中对 w S \mathbf{w}_{\mathscr{S}} w S 使用块更新和拟合 式 (9)
的边缘化版本,都需要一个有效的稀疏 Cholesky 求解器来求解 V S − 1 V^{−1}_{\mathscr{S}} V S − 1 。请注意,大多数稀疏 Cholesky 算法的计算费用取决于 C ~ S − 1 \tilde{\mathbf{C}}^{-1}_{\mathscr{S}} C ~ S − 1 的稀疏结构(主要是带宽)的精确性质(参见,例如,Davis 2006 [9] )。在这个边缘化模型中,吉布斯采样和预测所需的 flops 数量取决于 C ~ S − 1 \tilde{\mathbf{C}}^{-1}_{\mathscr{S}} C ~ S − 1 的稀疏结构,有时可能会大大超过非边缘化模型对 w i \mathbf{w}_i w i 进行单独更新所实现的线性使用。因此,精确拟合算法的谨慎选择应基于给定数据集C ~ S − 1 \tilde{\mathbf{C}}^{-1}_{\mathscr{S}} C ~ S − 1 的稀疏结构。
4.3 时空和广义线性模型版本
在我们寻求离散时间点(例如,每周、每月或每年数据)的空间插值的时空场景中,我们将响应(可能是矢量值)写为 y t ( s ) \mathbf{y}_t(\mathbf{s}) y t ( s ) ,将随机效应写为 w t ( s ) \mathbf{w}_t(\mathbf{s}) w t ( s ) 。所需的推断包括每个时间点的空间插值。包含最近邻高斯过程的空间动态模型很容易表述如下:
y t ( s ) = X t ( s ) ′ β t + u t ( s ) + ε t ( s ) ε t ( s ) ∼ i . i . d . N ( 0 , D ) β t = β t − 1 + η t η t ∼ i . i . d . N ( 0 , Σ η ) β 0 ∼ N ( m 0 , Σ 0 ) u t ( s ) = u t − 1 ( s ) + w t ( s ) w t ( s ) ∼ i n d N N G P ( 0 , C ~ ( ⋅ , ⋅ ∣ θ t ) ) \begin{align*}
&\mathbf{y}_t (\mathbf{s}) = \mathbf{X}_t(\mathbf{s})^{\prime} \boldsymbol{\beta}_t + \boldsymbol{u}_t(\mathbf{s}) + \boldsymbol{\varepsilon}_t(\mathbf{s})\\
&\boldsymbol{\varepsilon}t(\mathbf{s}) \stackrel{i.i.d.}{\sim} \mathcal{N}(\mathbf{0}, \mathbf{D})\\
&\boldsymbol{\beta}_t = \boldsymbol{\beta}_{t − 1} + \boldsymbol{η}_t\\
&\boldsymbol{η}_t \stackrel{i.i.d.}{\sim} \mathcal{N}(\mathbf{0}, \boldsymbol{\Sigma}_η)\\
&\boldsymbol{\beta}_0 \sim \mathcal{N}(\mathbf{m_0}, \boldsymbol{\Sigma_0})\\
&\mathbf{u}_t(\mathbf{s}) = \mathbf{u}_{t − 1} (\mathbf{s}) + \mathbf{w}_t(\mathbf{s})\\
&\mathbf{w}_t(\mathbf{s}) \stackrel{ind}{\sim} \mathcal{NNGP}(\mathbf{0}, \tilde{\mathbf{C}}( · , · \mid \boldsymbol{\theta}_t))
\end{align*}
y t ( s ) = X t ( s ) ′ β t + u t ( s ) + ε t ( s ) ε t ( s ) ∼ i . i . d . N ( 0 , D ) β t = β t − 1 + η t η t ∼ i . i . d . N ( 0 , Σ η ) β 0 ∼ N ( m 0 , Σ 0 ) u t ( s ) = u t − 1 ( s ) + w t ( s ) w t ( s ) ∼ in d NN G P ( 0 , C ~ ( ⋅,⋅ ∣ θ t ))
因此,人们保留了与基于过程的空间动力学模型完全相同的结构,例如,与 Gelfand、Banerjee 和 Gamerman (2005) [18] 中的结构相同,并简单地将 w t ( s ) \mathbf{w}_t(\mathbf{s}) w t ( s ) 的独立高斯过程先验替换为独立的最近邻高斯过程,以实现计算易处理性。
以上说明了最近邻高斯过程在模型构建方面的吸引力和便利性。只需写下父模型,然后用最近邻高斯过程替换完整的高斯过程。作为一个定义明确的过程,最近邻高斯过程确保了有效的空间动态模型。类似地,可以构建动态时空卡尔曼滤波的最近邻高斯过程版本(例如,在 Wikle 和 Cressie 1999 中)[49] 。
使用空间广义线性模型处理非高斯(例如二值或计数)数据也很简单(GLM;Diggle、Tawn 和 Moyeed 1998 [10] ;Lin 等人 2000 [29] ;Kammann 和 Wand 2003 [25] ;Banerjee、Carlin 和 Gelfand 2014 [1] )。在这里,最近邻高斯过程在第二阶段为随机效应提供了结构化依赖。
首先,我们用 g ( E ( y ( t ) ) ) g(E(\mathbf{y}(\mathbf{t}))) g ( E ( y ( t ))) 替换 式 (8)
中的 E [ y ( t ) ] E[\mathbf{y}(\mathbf{t})] E [ y ( t )] ,其中 g ( ⋅ ) g(·) g ( ⋅ ) 是一个合适的链接函数,使得 η ( t ) = g ( E ( y ( t ) ) ) = X ( t ) ′ β + Z ( t ) ′ w ( t ) \boldsymbol{η}(\mathbf{t}) = g(E(\mathbf{y}(\mathbf{t}))) = \mathbf{X}(\mathbf{t})^{\prime} \boldsymbol{\beta} + \mathbf{Z}(\mathbf{t})^{\prime} \mathbf{w}(\mathbf{t}) η ( t ) = g ( E ( y ( t ))) = X ( t ) ′ β + Z ( t ) ′ w ( t ) 。在第二阶段,我们将 w ( t ) \mathbf{w}(\mathbf{t}) w ( t ) 建模为最近邻高斯过程。第 3.2 节
和 第 3.3 节
中算法的优势仍然存在,但 第 4 节
中的某些替代算法可能不适用。例如,我们确实通过积分空间效应来获得易于处理的边缘化似然。
5 展示
参见原文。
6 总结与结论
我们将最近邻高斯过程视为大型地统计数据集的高度可扩展模型,而不是似然近似。
在推断性能和可扩展性方面,它明显优于高斯预测过程模型(Banerjee 等,2008 )[3] 等竞争性低秩过程。参考集和生成的邻居集(大小为 m m m )定义了最近邻高斯过程。较大的 m m m 会增加成本,但对于大型数据集,增加 m m m 并没有明显的好处(参见 附录 A6
,可在线获取)。虽然要求选择点的一些敏感性是预期的,但我们的结果表明推断非常稳健,并且 m ( < 20 ) m(< 20) m ( < 20 ) 的非常适中的值通常就足够了。更大的数据集可能需要更大的参考集,但其大小不会妨碍计算。事实上,观测位置集是参考集最便利的选择。
这种选择的一个潜在问题是: 如果观测位置之间有很大的间隙(Gap),那么生成的最近邻高斯过程可能不是完整高斯过程的近似 。这是因为参考集之外的观测会通过它们各自的邻居集相关,并且大的间隙可能意味着两个非常接近的点具有非常不同的邻居集,从而导致低相关性。我们在 附录 A7
(可在线获取)中的模拟结果确实表明,在这种情况下,最近邻高斯过程的协方差场在间隙中的点处非常平坦。然而,即使选择了最近邻高斯过程模型,其性能也与完整的高斯过程模型相当,因为后者也无法提供关于较大间隙中观测的有力信息。当然,总是可以在整个域上选择一种网格作为 S \mathscr{S} S ,来构造一个具有与完整高斯过程类似协方差函数的最近邻高斯过程(见图 A.5
,可在线获取)。S \mathscr{S} S 的另一种选择可以基于树状高斯过程的设置(Gramacy 和 Lee 2008)[22] 。
我们的模拟实验表明: 基于最近邻高斯过程模型的估计和克里金预测,与真正的 Matérn 高斯模型非常相似,即使是缓慢衰减的协方差(参见附录 A8
,可在线获取)。 Matérn 协方差函数随距离单调递减,满足 理论筛选条件(theoretical screening conditions?)
,即能够根据少数邻居进行准确预测(Stein 2002)[40] 。这或许可以解释具有 Matérn 协方差的最近邻高斯过程模型的出色性能。我们还在最近邻的很大一部分与相应位置负相关的场景中,研究了使用波形协方差函数(不满足筛选条件)的最近邻高斯过程模型的性能。最近邻高斯过程估计仍然接近真实模型参数,克里金表面与真实表面非常相似(参见附录 A9
,可在线获取)。
大多数波形协方差函数(如阻尼余弦函数或基数正弦函数)产生具有几个小特征值的协方差矩阵。完整的高斯过程模型不能用于此类模型,因为矩阵求逆在数值上不稳定。最近邻高斯过程模型涉及更小的矩阵求逆,并且在某些情况下可实现(例如,对于阻尼余弦模型)。然而,对于基数正弦协方差,最近邻高斯过程也面临数值问题,因为即使是小的 m × m m×m m × m 协方差矩阵,在数值上也是不稳定的。带偏置调整(bias-adjusted)的低秩高斯过程(Finley、Banerjee 和 McRoberts 2009)[15] 在这方面具有一定的优势,因为协方差矩阵保证具有远离零的特征值,尽管稳定的计算通常需要完整的 Cholesky 分解。
除了可以轻松扩展到具有离散时间的多元和时空设置之外,最近邻高斯过程还可以激发人们在图上基于过程建模的兴趣。示例中包括网络(network),其中来自结点的数据被假定为与相邻结点相似。在空间数据的区域聚合分析方面,它还提供了新的建模途径和替代马尔可夫随机场模型的方法。此外,当空间和时间被联合建模为使用时空协方差函数的过程时,还有创新的空间。人们需要在空间和时间上构建邻居集,并且探索可扩展性和推断方面的有效策略。
本文方法还需要与其他方法进行比较(例如,参见 Katzfuss 和 Cressie 2012 [26] )。最后,正在对替代算法和参数化进行更全面的研究,以实现更快的马尔可夫链蒙特卡洛收敛,包括执行稀疏 Cholesky 分解的直接方法(见第 4 节
)。更直接的是,我们计划将较低级别的 C++
代码迁移到 R 统计环境中的现有 spBayes 包以促进更广泛的用户使用最近邻高斯过程模型。
参考文献
[1] Banerjee, S., Carlin, BP., Gelfand, AE. Hierarchical Modeling and Analysis for Spatial Data. 2. Boca Raton, FL: Chapman & Hall/CRC; 2014. [2] Banerjee S, Finley AO, Waldmann P, Ericcson T. Hierarchical Spatial Process Models for Multiple Traits in Large Genetic Trials. Journal of the American Statistical Association. 2010. [3] Banerjee S, Gelfand AE, Finley AO, Sang H. Gaussian Predictive Process Models for Large Spatial Datasets. Journal of the Royal Statistical Society, Series B. 2008. [4] Bechtold, WA., Patterson, PL. The Enhanced Forest Inventory and Analysis National Sample Design and Estimation Procedures (SRS-80). Asheville, NC: U.S. Department of Agriculture, Forest Service, Southern Research Station; 2005. [5] Bevilacqua M, Gaetan C. Comparing Composite Likelihood Methods Based on Pairs for Spatial Gaussian Random Fields. Statistics and Computing. 2014. [6] Crainiceanu CM, Diggle PJ, Rowlingson B. Bivariate Binomial Spatial Modeling of Loa Loa Prevalence in Tropical Africa. Journal of the American Statistical Association. 2008. [7] Cressie NAC, Johannesson G. Fixed Rank Kriging for Very Large Data Sets. Journal of the Royal Statistical Society, Series B. 2008. [8] Cressie, NAC., Wikle, CK. Statistics for Spatio-Temporal Data. Hoboken, NJ: Wiley; 2011. [9] Davis, TA. Direct Methods for Sparse Linear Systems. Philadelphia, PA: Society for Industrial and Applied Mathematics; 2006. [10] Diggle PJ, Tawn JA, Moyeed RA. “Model-Based Geostatistics” (with discussion). Applied Statistics. 1998. [11] Du J, Zhang H, Mandrekar VS. Fixed-Domain Asymptotic Properties of Tapered Maximum Likelihood Estimators. Annals of Statistics. 2009. [12] Eidsvik J, Shaby BA, Reich BJ, Wheeler M, Niemi J. Estimation and Prediction in Spatial Models With Block Composite Likelihoods. Journal of Computational and Graphical Statistics. 2014. [13] Emory X. The Kriging Update Equations and Their Application to the Selection of Neighboring Data. Computational Geosciences. 2009. [14] Finley AO, Banerjee S, Gelfand AE. spBayes for Large Univariate and Multivariate Point-Referenced Spatio-Temporal Data Models. Journal of Statistical Software. 2015. [15] Finley AO, Banerjee S, McRoberts RE. Hierarchical Spatial Models for Predicting Tree Species Assemblages Across Large Domains. Annals of Applied Statistics. 2009. [16] Furrer R, Genton MG, Nychka DW. Covariance Tapering for Interpolation of Large Spatial Datasets. Journal of Computational and Graphical Statistics. 2006. [17] Gelfand, AE., Banerjee, S. Multivariate Spatial Process Models. In: Gelfand, AE.Diggle, PJ.Fuentes, M., Guttorp, P., editors. Handbook of Spatial Statistics. Boca Raton, FL: Chapman & Hall/CRC; 2010. [18] Gelfand AE, Banerjee S, Gamerman D. Spatial Process Modelling for Univariate and Multivariate Dynamic Spatial Data. Environmetrics. 2005. [19] Gelfand AE, Ghosh SK. Model Choice: A Minimum Posterior Predictive Loss Approach. Biometrika. 1998. [20] Gelfand AE, Kim H-J, Sirmans C, Banerjee S. Spatial Modeling With Spatially Varying Coefficient Processes. Journal of the American Statistical Association. 2003. [21] Gramacy, RB., Apley, DW. Local Gaussian Process Approximation for Large Computer Experiments. Available at http://arxiv.org/abs/1303.0383. 2014. [22] Gramacy RB, Lee H. Bayesian Treed Gaussian Process Models With an Application to Computer Experiments. Journal of the American Statistical Association. 2008. [23] Gramacy, RB., Niemi, J., Weiss, RM. Massively Parallel Approximate Gaussian Process Regression.Available at http://arxiv.org/abs/1310.5182. 2014. [24] Higdon, D. Technical Report. Institute of Statistics and Decision Sciences, Duke University; Durham. NC: 2001. Space and Space Time Modeling Using Process Convolutions. 2001. [25] Kammann EE, Wand MP. Geoadditive Models. Applied Statistics.52:1–18. 2003. [26] Katzfuss M, Cressie N. Bayesian Hierarchical Spatio-Temporal Smoothing for Very Large Datasets. Environmetrics. 2012. [27] Kaufman CG, Scheverish MJ, Nychka DW. Covariance Tapering for Likelihood-Based Estimation in Large Spatial Data Sets. Journal of the American Statistical Association. 2008. [28] Lauritzen, SL. Graphical Models. Oxford, UK: Clarendon Press; 1996. [29] Lin X, Wahba G, Xiang D, Gao F, Klein R, Klein B. Smoothing Spline ANOVA Models for Large Data Sets With Bernoulli Observations and the Randomized GACV. Annals of Statistics. 2000. [30] Lindgren, F., Rue, H. and Lindström, J. (2011) ‘An explicit link between Gaussian fields and Gaussian Markov random fields: the stochastic partial differential equation approach’, Journal of the Royal Statistical Society: Series B (Statistical Methodology), 73(4), pp. 423–498. Available at: https://doi.org/10.1111/j.1467-9868.2011.00777.x. [31] Moller, J., Waagepetersen, RP. Statistical Inference and Simulation for Spatial Point Processes. 1. Boca Raton, FL: Chapman & Hall/CRC; 2003. [32] Rasmussen, CE., Williams, CKI. Gaussian Processes for Machine Learning. 1. Cambridge, MA: The MIT Press; 2005. [33] Rue, H., Held, L. Gaussian Markov Random Fields: Theory and Applications. Boca Raton, FL: Chapman & Hall/CRC; 2005. [34] Sang H, Huang JZ. A Full Scale Approximation of Covariance Functions for Large Spatial Data Sets. Journal of the Royal Statistical Society, Series B. 2012. [35] Schabenberger, O., Gotway, CA. Statistical Methods for Spatial Data Analysis. 1. Boca Raton, FL: Chapman & Hall/CRC; 2004. [36] Shaby, BA. The Open-Faced Sandwich Adjustment for MCMC Using Estimating Functions. Available at http://arxiv.org/abs/1204.3687. 2012. [37] Shaby BA, Ruppert D. Tapered Covariance: Bayesian Estimation and Asymptotics. Journal of Computational and Graphical Statistics. 2012. [38] Spiegelhalter DJ, Best NG, Carlin BP, van der Linde A. Bayesian Measures of Model Complexity and Fit. Journal of the Royal Statistical Society, Series B. 2002. [39] Stein, ML. Interpolation of Spatial Data: Some Theory for Kriging. 1. New York: Springer; 1999. [40] Stein ML. The Screening Effect in Kriging. Annals of Statistics. 2002. [41] Stein ML. Spatial Variation of Total Column Ozone on a Global Scale. Annals of Applied Statistics. 2007. [42] Stein ML. A Modeling Approach for Large Spatial Datasets. Journal of the Korean Statistical Society. 2008. [43] Stein ML. Limitations on Low Rank Approximations for Covariance Matrices of Spatial Data. Spatial Statistics. 2014. [44] Stein ML, Chi Z, Welty LJ. Approximating Likelihoods for Large Spatial Data Sets. Journal of the Royal Statistical Society, Series B. 2004. [45] Stroud, JR., Stein, ML., Lysen, S. Bayesian and Maximum Likelihood Estimation for Gaussian Processes on an Incomplete Lattice.Available at http://arxiv.org/abs/1402.4281. 2014. [46] Vecchia AV. Estimation and Model Identification for Continuous Spatial Processes. Journal of the Royal Statistical Society, Series B. 1988. [47] Vecchia AV. A New Method of Prediction for Spatial Regression Models With Correlated Errors. Journal of the Royal Statistical Society, Series B. 1992. [48] Wang Q, Adiku S, Tenhunen J, Granier A. On the Relationship of NDVI with Leaf Area Index in a Deciduous Forest Site. Remote Sensing of Environment. 2005. [49] Wikle C, Cressie NAC. A Dimension-Reduced Approach to Space-Time Kalman Fltering. Biometrika. 1999. [50] Yeniay O, Goktas A. A Comparison of Partial Least Squares Regression With Other Prediction Methods. Hacettepe Journal of Mathematics and Statistics. 2002. [51] Zhang X, Kondraguanta S. Estimating Forest Biomass in the USA Using Generalized Allometric Models and MODIS Land Products. Geophysical Research Letters. 2006.