【摘要】 高斯过程 Gaussian Processes 是概率论和数理统计中随机过程的一种,是多元高斯分布的扩展,被应用于机器学习、信号处理等领域。本文对高斯过程进行公式推导、原理阐述、可视化以及代码实现,介绍了以高斯过程为基础的高斯过程回归 基本原理、超参优化、高维输入等问题。

【see also】 《高斯过程的可视化探索》《稀疏高斯过程及其推断》《深度高斯过程》《深度神经网络作为高斯过程》《深度高斯过程的重要性加权变分推断》


1 一元高斯分布

我们从最简单最常见的一元高斯分布开始,其概率密度函数为

p(x)=1σ2πexp((xμ)22σ2)(1)p(x) = \frac{1}{\sigma\sqrt{2\pi}}\exp (-\frac{(x-\mu)^2}{2\sigma^2}) \tag{1}

其中 μ\muσ\sigma 分别表示均值和方差,这个概率密度函数曲线画出来就是我们熟悉的钟形曲线,均值和方差唯一地决定了曲线的形状。


2 多元高斯分布

从一元高斯分布推广到多元高斯分布,假设各维度之间相互独立,则有联合分布:

p(x)=p(x1,x2,...,xn)=i=1np(xi)=1(2π)n2σ1σ2...σnexp(12[(x1μ1)2σ12+(x2μ2)2σ22+...+(xnμn)2σn2])(2)p(\mathbf{x})=p(x_1, x_2, ..., x_n) = \prod_{i=1}^{n}p(x_i)=\frac{1}{(2\pi)^{\frac{n}{2}}\sigma_1\sigma_2...\sigma_n}\exp \left(-\frac{1}{2}\left [\frac{(x_1-\mu_1)^2}{\sigma_1^2} + \frac{(x_2-\mu_2)^2}{\sigma_2^2} + ... + \frac{(x_n-\mu_n)^2}{\sigma_n^2}\right]\right) \tag{2}


其中 μ1,μ2,\mu_1, \mu_2, \cdotsσ1,σ2,\sigma_1, \sigma_2, \cdots 分别是第 1 维、第 2 维。… 的均值和方差。可以将上式表示为向量和矩阵形式,令:

xμ=[x1μ1, x2μ2,  xnμn]T\boldsymbol{x - \mu}=[x_1-\mu_1, \ x_2-\mu_2,\ … \ x_n-\mu_n]^T

K=[σ12000σ2200000σn2]K = \begin{bmatrix} \sigma_1^2 & 0 & \cdots & 0\\ 0 & \sigma_2^2 & \cdots & 0\\ \vdots & \vdots & \ddots & 0\\ 0 & 0 & 0 & \sigma_n^2 \end{bmatrix}

则有:

σ1σ2...σn=K12\sigma_1\sigma_2...\sigma_n = |K|^{\frac{1}{2}}

(x1μ1)2σ12+(x2μ2)2σ22+...+(xnμn)2σn2=(xμ)TK1(xμ)\frac{(x_1-\mu_1)^2}{\sigma_1^2} + \frac{(x_2-\mu_2)^2}{\sigma_2^2} + ... + \frac{(x_n-\mu_n)^2}{\sigma_n^2}=(\boldsymbol{x-\mu})^TK^{-1}(\boldsymbol{x-\mu})

代入式(2)得到向量和矩阵形式:

p(x)=(2π)n2K12exp(12(xμ)TK1(xμ))(3)p(\mathbf{x}) = (2\pi)^{-\frac{n}{2}}|K|^{-\frac{1}{2}}\exp \left( -\frac{1}{2}(\boldsymbol{x-\mu})^TK^{-1}(\boldsymbol{x-\mu}) \right) \tag{3}

其中 μRn\boldsymbol{\mu} \in \mathbb{R}^n 是均值向量, KRn×nK \in \mathbb{R}^{n \times n} 为协方差矩阵。

注意:式中假设了各维度之间相互独立,因此 KK 是对角矩阵。如果各维度变量存在相关,则上述形式仍然成立,但此时协方差矩阵 KK 不再是对角矩阵,而是半正定的对称矩阵。

式(3)通常也简写为:

xN(μ,K)x \sim \mathcal{N}(\boldsymbol{\mu}, K)


3 无限元高斯分布

在多元高斯分布基础上进一步扩展,假设有无限多个维度的随机变量呢?我们用一个例子来展示从一元高斯分布到无限元高斯分布的扩展过程(来源:MLSS 2012: J. Cunningham - Gaussian Processes for Machine Learning)。

(1)一元高斯分布图解

假设在周一到周四的每天 7:00 测 1 次心率,共测得下图所示 4 个点,其可能的高斯分布如图中高瘦的曲线所示。这是一元高斯分布,只有每天 7: 00 心率这一个维度。

(2)二元以及多元高斯分布

现在不仅考虑在每天 7: 00 测一次心率,也在 8:00 时也做一次测量,这时就问题就由原来一个维度的随机变量,变成两个维度的随机变量。此时如果考察两个时间心率的联合概率分布,就会如下图的二元高斯分布图:

上述过程可以进一步扩展到每天每个整点均测量一次心率,则每天当中的整点测量值一起,构成了一个 24 维的高斯概率分布(此时已经很难利用计算机做可视化)。此时,周一到周四中每天的 24 个测量值,作为一个整体(可以视为一个离散函数),可以视为对该 24 维概率分布的一次采样。

(3)无限元的高斯分布

如果我们在每天的无限个时间点都做一次心率测量,则问题变成了下图所示的情况。注意图中的横轴是测量时间,不同颜色的每个线条均代表了在无限元的高斯分布上做的一次采样(或理解为一次采样产生了无限多个位置不重复的样本点),这种由无限多个不重复的样本点构成的采样结果看起来具有函数的表现形式,因此通常也将无限元的高斯分布称为 ** 函数的分布 **(即无限元的高斯分布的一次采样对应了一个函数)。这个无限元的高斯分布就是 “高斯过程”。按照字面意思可以理解为:一元、二元和多元高斯分布对应于 “点的分布” ,而无限元的高斯过程对应于 ** 函数的分布 **。

高斯过程正式地定义为:

对于所有可能的 x=[x1,x2,,xn]\mathbf{x} = [x_1, x_2, \cdots, x_n],如果 f(t)=[f(x1),f(x2),,f(xn)]f(\boldsymbol{t}) =[f(x_1), f(x_2), \cdots, f(x_n)] 都服从多元高斯分布,则称 ff 是一个高斯过程,表示为:

f(x)N(μ(x),κ(x,x))(4)f(\mathbf{x}) \sim \mathcal{N}(\boldsymbol{\mu}(\mathbf{x}), \kappa(\mathbf{x},\mathbf{x})) \tag{4}

(1) μ(x):RnRn\boldsymbol{\mu}(\mathbf{x}): \mathbb{R^{n}} \rightarrow \mathbb{R^{n}} 被称为均值函数( Mean function ),返回各维度的均值。 均值函数可以是 RR\mathbb{R} \rightarrow \mathbb{R}RDR\mathbb{R}^D \rightarrow \mathbb{R} 的任何函数;通常取 μ(x)=0,x\boldsymbol{\mu}(\mathbf{x})=0, \forall x

(2)κ(x,x):Rn×RnRn×n\kappa(\mathbf{x},\mathbf{x}) : \mathbb{R^{n}} \times \mathbb{R^{n}} \rightarrow \mathbb{R^{n\times n}} 被称为协方差函数( Covariance Function )核函数( Kernel Function ),返回各维度随机变量两两之间的协方差,多个变量一起构成协方差矩阵。 κ\kappa 可以是任何有效的 RD×RDR\mathbb{R}^D \times \mathbb{R}^D \rightarrow \mathbb{R}Mercer 核

Mercer 定理: ** 任何半正定的函数都可以作为核函数。**
半正定函数 的定义:在训练数据集 (x1,x2,...xn)(x_1,x_2,...x_n) 基础上, 定义一个元素值为 aij=f(xi,xj)a_{ij} = f(x_i,x_j)n×nn \times n 矩阵,如果该矩阵为半正定,那么函数 f(xi,xj)f(x_i,x_j) 就被称为半正定函数。
Mercer 定理 是核函数的充分条件,而非必要条件。也就是说还有不满足 Mercer 定理的函数也可以是核函数。常见的核函数有高斯核多项式核等,基于这些核函数,可以通过核函数的性质(如对称性等)进一步构造出新的核函数。支持向量机(SVM) 是目前核方法应用的经典模型。

根据上述定义,一个高斯过程由一个均值函数和一个协方差函数唯一地定义,并且 一个高斯过程的有限维度的子集都服从多元高斯分布


1
2
3
一元高斯: 单个实数值随机变量上的分布
多元高斯: 多个实数值随机变量上的联合分布
高斯过程: 无限个实数值随机变量构成的函数上的分布

4 核函数(协方差函数)

根据上述介绍,均值函数常常被设置为恒 00 ,因此核函数就成了高斯过程的核心,它决定了一个高斯过程的性质。

根据高斯过程和核函数的定义,核函数在高斯过程中主要用于衡量任意两个点(在高斯过程语境中,指任意两个随机变量)之间的相似性程度,如果将高斯过程离散化(或抽样),则获得的有限数量的随机变量两两一起构成协方差矩阵(或相关系数矩阵)。目前最常用的核函数是二次高斯核函数,也称为径向基函数RBF)。其基本形式如下,其中 σ\sigma\ell 是高斯核的超参数。

K(xi,xj)=σ2exp(xixj2222)K(x_i,x_j)=\sigma^2\exp \left( -\frac{\left \|x_i-x_j\right \|_2^2}{2\ell^2}\right)

以上高斯核函数的 Python 实现如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
import numpy as np

def gaussian_kernel(x1, x2, l=1.0, sigma_f=1.0):
"""Easy to understand but inefficient."""
m, n = x1.shape[0], x2.shape[0]
dist_matrix = np.zeros((m, n), dtype=float)
for i in range(m):
for j in range(n):
dist_matrix[i][j] = np.sum((x1[i] - x2[j]) ** 2)
return sigma_f ** 2 * np.exp(- 0.5 / l ** 2 * dist_matrix)

def gaussian_kernel_vectorization(x1, x2, l=1.0, sigma_f=1.0):
"""More efficient approach."""
dist_matrix = np.sum(x1**2, 1).reshape(-1, 1) + np.sum(x2**2, 1) - 2 * np.dot(x1, x2.T)
return sigma_f ** 2 * np.exp(-0.5 / l ** 2 * dist_matrix)

x = np.array([700, 800, 1029]).reshape(-1, 1)
print(gaussian_kernel_vectorization(x, x, l=500, sigma=10))

输出的协方差矩阵为:

1
2
3
[[100.      98.02   80.53]
[98.02 100. 90.04]
[80.53 90.04 100.]]

5 高斯过程可视化

下图是高斯过程的可视化,其中蓝线是高斯过程的均值,浅蓝色区域 95% 置信区间(即每个随机变量的方差,由协方差矩阵的对角线元素确定),每条虚线(函数)代表高斯过程的一次采样(此处用 100 维模拟连续的无限维)。左上角第一幅图是四个零均值高斯过程先验,分别用四种不同颜色的曲线表示。后面几幅图分别展示了观测到新数据点时,不同高斯过程样本的更新过程(即更新后高斯过程后验的均值函数协方差函数)的过程。从图中可以看到:随着数据点(随机变量)数量的增加,四种高斯过程先验(即高斯过程的任意一次随机抽样结果)最终都会收敛至真实值附近。进而可以做出更进一步的设想: 无论高斯过程先验如何选择,随着数据点数量的增加,所有高斯过程先验最终也都会收敛至真实值附近

接下来用公式推导上图的过程。

(1)高斯过程先验的设置

将高斯过程先验表示为 f(x)N(μf,Kff)f(\mathbf{x}) \sim \mathcal{N}(\boldsymbol{\mu}_{f}, K_{ff}),对应左上角第一幅图。

(2)高斯过程后验的更新

现在观测到一些数据 (x,y)\left(\mathbf{x}^\star, \mathbf{y}^\star\right) ,则根据模型假设,y\mathbf{y}^\starf(x)f(\mathbf{x}) 服从联合高斯分布:

[f(x)y]N([μfμy],[KffKfyKfyTKyy])\begin{bmatrix} f(\mathbf{x})\\ \boldsymbol{y^\star}\\ \end{bmatrix} \sim \mathcal{N} \left( \begin{bmatrix} \boldsymbol{\mu_f}\\ \boldsymbol{\mu_y}\\ \end{bmatrix}, \begin{bmatrix} K_{ff} & K_{fy}\\ K_{fy}^T & K_{yy}\\ \end{bmatrix} \right)

其中 Kff=κ(x,x)K_{ff} = \kappa(\mathbf{x}, \mathbf{x}),$ K_{fy}=\kappa(\mathbf{x}, \boldsymbol{x^\star}) K_{yy} = \kappa(\boldsymbol{x^\star},\boldsymbol{x^\star})$ ,则有:

fN(KfyTKff1y+μf,KyyKfyTKff1Kfy)(5)f \sim \mathcal{N}(K_{fy}^{T}K_{ff}^{-1}\mathbf{y}+\boldsymbol{\mu}_f,K_{yy}-K_{fy}^{T}K_{ff}^{-1}K_{fy}) \tag{5}

公式(5)表明:给定数据 (x,y)(\boldsymbol{x^\star}, \boldsymbol{y^\star}) 之后,函数 ff 仍然服从高斯过程分布,具体推导可见 Gaussian Processes for Machine Learning

从公式(5)可以看出一些有趣的性质:

  • 后验的均值函数 KfyTKff1y+μfK_{fy}^{T}K_{ff}^{-1}\mathbf{y}+\boldsymbol{\mu_f} 实际上是观测变量 y\boldsymbol{y^*} 的一个线性函数
  • 后验的协方差函数 KyyKfyTKff1KfyK_{yy}-K_{fy}^{T}K_{ff}^{-1}K_{fy} 中,第一部分 KyyK_{yy} 是先验的协方差设置,减掉的那一项表示观测到数据后函数分布不确定性减少的部分。也就是说,当第二项接近于 00 时,说明观测到数据后不确定性几乎不变,当第二项非常大时,说明不确定性降低了很多。

(3)概率视角的解释

公式(5)其实就是高斯过程回归的基本公式,从贝叶斯视角来看,首先设置一个高斯过程先验 $f(\mathbf{x}) \sim \mathcal{N}(\boldsymbol{\mu}{f}, K{ff}) $,然后在观测到一些数据后,基于先验和似然( 此处的似然假设为 y\boldsymbol{y^\star}f(x)f(\mathbf{x}) 服从联合高斯分布 ),计算得到高斯过程后验( 即更新均值函数和协方差函数 )。


6 简单高斯过程回归实现

本节用代码实现一个简单的高斯过程回归模型。由于高斯过程回归是一种非参数化的方法,每次推断需要利用所有训练数据进行计算,因此没有显式的训练模型参数的过程,所以拟合过程只需要将训练数据记录下来,实际的推断过程在预测过程中进行。Python 代码如下

1
注:参数模型的贝叶斯过程通常先为模型参数设置先验(或超先验),然后通过拟合学习(推断)出模型参数的后验分布,而后利用最大后验或贝叶斯模型平均得到预测值。而非参数模型没有确定数量的模型参数,其模型参数大多是根据训练数据动态生成的,因此非参数模型的学习过程和预测过程很多时候是纠缠在一起的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
from scipy.optimize import minimize

class GPR:

def __init__(self, optimize=True):
self.is_fit = False
self.train_X, self.train_y = None, None
self.params = {"l": 0.5, "sigma_f": 0.2}
self.optimize = optimize

def fit(self, X, y):
# store train data
self.train_X = np.asarray(X)
self.train_y = np.asarray(y)
self.is_fit = True

def predict(self, X):
if not self.is_fit:
print("GPR Model not fit yet.")
return

X = np.asarray(X)
Kff = self.kernel(self.train_X, self.train_X) # (N, N)
Kyy = self.kernel(X, X) # (k, k)
Kfy = self.kernel(self.train_X, X) # (N, k)
Kff_inv = np.linalg.inv(Kff + 1e-8 * np.eye(len(self.train_X))) # (N, N)

mu = Kfy.T.dot(Kff_inv).dot(self.train_y)
cov = Kyy - Kfy.T.dot(Kff_inv).dot(Kfy)
return mu, cov

def kernel(self, x1, x2):
dist_matrix = np.sum(x1**2, 1).reshape(-1, 1) + np.sum(x2**2, 1) - 2 * np.dot(x1, x2.T)
return self.params["sigma_f"] ** 2 * np.exp(-0.5 / self.params["l"] ** 2 * dist_matrix)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
def y(x, noise_sigma=0.0):
x = np.asarray(x)
y = np.cos(x) + np.random.normal(0, noise_sigma, size=x.shape)
return y.tolist()

train_X = np.array([3, 1, 4, 5, 9]).reshape(-1, 1)
train_y = y(train_X, noise_sigma=1e-4)
test_X = np.arange(0, 10, 0.1).reshape(-1, 1)

gpr = GPR()
gpr.fit(train_X, train_y)
mu, cov = gpr.predict(test_X)
test_y = mu.ravel()
uncertainty = 1.96 * np.sqrt(np.diag(cov))
plt.figure()
plt.title("l=%.2f sigma_f=%.2f" % (gpr.params["l"], gpr.params["sigma_f"]))
plt.fill_between(test_X.ravel(), test_y + uncertainty, test_y - uncertainty, alpha=0.1)
plt.plot(test_X, test_y, label="predict")
plt.scatter(train_X, train_y, label="train", c="red", marker="x")
plt.legend()

结果如下图,红点是训练数据,蓝线是预测值,浅蓝色区域是 95% 置信区间。真实的函数是一个 cosine 函数,可以看到在训练数据点较为密集的地方,模型预测的不确定性较低,而在训练数据点比较稀疏的区域,模型预测不确定性较高。

cosine函数的高斯过程仿真


7 超参数优化

上文提到高斯过程是一种非参数模型,没有推断模型参数的过程,一旦核函数、训练数据给定,模型就被唯一地确定下来。但注意到核函数本身是有参数的( 比如高斯核的参数 σ\sigma\ell),我们称为这类参数为模型的超参数( 类似于 k-NN 模型中 k 的取值)。

核函数本质上决定了样本点相似性的度量方法,进而影响到整个函数的概率分布的形状。上面的高斯过程回归的例子中使用了 σ=0.2\sigma=0.2=0.5\ell=0.5 的超参数,现在可以选取不同的超参数看看回归出来的效果有何不同。

不同超参数对应的高斯过程后验

从上图可以看出,核宽 \ell 越大函数更加平滑,训练数据点之间的预测方差更小;反之,核宽 \ell 越小,则函数倾向于更加扭曲,训练数据点之间的预测方差更大。参数 σ\sigma 则直接控制方差大小,$ \sigma$ 越大方差越大,反之亦然。

如何选择最优的核函数参数 σ\sigma\ell 呢?

答案是:选取能够最大化 y\mathbf{y} 出现概率的超参数(即最大似然法),实践中由于对数计算带来的好处,通常采用对数似然方法来代替。边缘对数似然表示为:

log p(yσ,)=log N(0,Kyy(σ,))=12yTKyy1y12log KyyN2log (2π)(6)\mathrm{log}\ p(\mathbf{y}|\sigma, \ell) = \mathrm{log} \ \mathcal{N}(\boldsymbol{0}, K_{yy}(\sigma, \ell)) = -\frac{1}{2}\mathbf{y}^T K_{yy}^{-1}\mathbf{y} - \frac{1}{2}\mathrm{log}\ |K_{yy}| - \frac{N}{2}\mathrm{log} \ (2\pi) \tag{6}

具体实现中,在拟合方法中增加超参数优化的这部分代码,并目标从最大化边缘对数似然转换为最小化负边缘对数似然,以便于计算机实现。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
from scipy.optimize import minimize

class GPR:

def __init__(self, optimize=True):
self.is_fit = False
self.train_X, self.train_y = None, None
self.params = {"l": 0.5, "sigma_f": 0.2}
self.optimize = optimize

def fit(self, X, y):
# store train data
self.train_X = np.asarray(X)
self.train_y = np.asarray(y)

# hyper parameters optimization
def negative_log_likelihood_loss(params):
self.params["l"], self.params["sigma_f"] = params[0], params[1]
Kyy = self.kernel(self.train_X, self.train_X) + 1e-8 * np.eye(len(self.train_X))
return 0.5 * self.train_y.T.dot(np.linalg.inv(Kyy)).dot(self.train_y) + 0.5 * np.linalg.slogdet(Kyy)[1] + 0.5 * len(self.train_X) * np.log(2 * np.pi)

if self.optimize:
res = minimize(negative_log_likelihood_loss, [self.params["l"], self.params["sigma_f"]],
bounds=((1e-4, 1e4), (1e-4, 1e4)),
method='L-BFGS-B')
self.params["l"], self.params["sigma_f"] = res.x[0], res.x[1]

self.is_fit = True

将训练、优化得到的超参数、预测结果可视化如下图,可以看到最优的 $\ell=1.2 \sigma_f=0.8$。

这里用 scikit-learn 的 GaussianProcessRegressor 接口进行对比:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
from sklearn.gaussian_process import GaussianProcessRegressor
from sklearn.gaussian_process.kernels import ConstantKernel, RBF

# fit GPR
kernel = ConstantKernel(constant_value=0.2, constant_value_bounds=(1e-4, 1e4)) * RBF(length_scale=0.5, length_scale_bounds=(1e-4, 1e4))
gpr = GaussianProcessRegressor(kernel=kernel, n_restarts_optimizer=2)
gpr.fit(train_X, train_y)
mu, cov = gpr.predict(test_X, return_cov=True)
test_y = mu.ravel()
uncertainty = 1.96 * np.sqrt(np.diag(cov))

# plotting
plt.figure()
plt.title("l=%.1f sigma_f=%.1f" % (gpr.kernel_.k2.length_scale, gpr.kernel_.k1.constant_value))
plt.fill_between(test_X.ravel(), test_y + uncertainty, test_y - uncertainty, alpha=0.1)
plt.plot(test_X, test_y, label="predict")
plt.scatter(train_X, train_y, label="train", c="red", marker="x")
plt.legend()

scikit-learn 得到结果为 =1.2,σf=0.6\ell=1.2, \sigma_f=0.6,与我们优化的超参数有一点点差别,可能是实现细节不同所导致。

https://pic2.zhimg.com/80/v2-5771db0caae19ef0f196f77a2fa33151_720w.jpg


8 多维输入

我们上面讨论的训练数据的输入都是一维(即每一个变量 xix_i 都是标量,主要用于时间序列分析 )的,不过高斯过程可以直接扩展到多维输入( xix_i 是 D 维向量,主要用于多变量影响分析)的情况,只需直接将输入维度增加即可。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
def y_2d(x, noise_sigma=0.0):
x = np.asarray(x)
y = np.sin(0.5 * np.linalg.norm(x, axis=1))
y += np.random.normal(0, noise_sigma, size=y.shape)
return y

train_X = np.random.uniform(-4, 4, (100, 2)).tolist()
train_y = y_2d(train_X, noise_sigma=1e-4)

test_d1 = np.arange(-5, 5, 0.2)
test_d2 = np.arange(-5, 5, 0.2)
test_d1, test_d2 = np.meshgrid(test_d1, test_d2)
test_X = [[d1, d2] for d1, d2 in zip(test_d1.ravel(), test_d2.ravel())]

gpr = GPR(optimize=True)
gpr.fit(train_X, train_y)
mu, cov = gpr.predict(test_X)
z = mu.reshape(test_d1.shape)

fig = plt.figure(figsize=(7, 5))
ax = Axes3D(fig)
ax.plot_surface(test_d1, test_d2, z, cmap=cm.coolwarm, linewidth=0, alpha=0.2, antialiased=False)
ax.scatter(np.asarray(train_X)[:,0], np.asarray(train_X)[:,1], train_y, c=train_y, cmap=cm.coolwarm)
ax.contourf(test_d1, test_d2, z, zdir='z', offset=0, cmap=cm.coolwarm, alpha=0.6)
ax.set_title("l=%.2f sigma_f=%.2f" % (gpr.params["l"], gpr.params["sigma_f"]))

下面是一个二维输入数据的高斯过程回归,左图是没有经过超参优化的拟合效果,右图是经过超参优化的拟合效果。

二维空间中的高斯过程回归

以上完整的的代码放在 toys/GP


9 高斯过程回归的优缺点

9.1 优点

  • 支持非线性拟合和平滑
    • (采用 RBF 作为协方差函数)具有平滑性质,能够拟合非线性数据;
  • 不确定性与预测结果同步输出
    • 高斯过程回归天然支持 模型对预测结果的不确定性,可直接输出预测位置随机变量的概率分布;
  • 天然的贝叶斯正则化
    • 通过最大化边缘似然的方式,可以在不需要交叉验证的情况下给出比较好的正则化效果(得益于贝叶斯方法自带奥卡姆剃刀)。

9.2 缺点

  • 计算和存储复杂度高
    • 高斯过程是非参数模型,每次的推断都需要对所有的数据点参与计算(矩阵求逆)。对于没有经过任何优化的高斯过程回归,nn 个样本点时间复杂度大概是 $\mathcal{O}(n^3) $,空间复杂度是 $\mathcal{O}(n^2) $,在数据量大的时候高斯过程变得 intractable,因此引入了稀疏高斯过程的概念,参见《关于稀疏高斯过程及其变分推断方法的教程》
  • 非共轭先验时的推断问题
    • 高斯过程回归中,先验是一个高斯过程分布,似然是高斯分布,根据高斯的共轭特性,其后验仍是一个高斯过程分布。当似然不满足高斯分布的问题中(如二元或多元分类人物),需要对得到的后验进行近似,以使其仍可以是一个高斯过程;
  • 超参数优化问题
    • 径向基函数(RBF)是最常用的协方差函数,但实际中通常需要根据问题和数据性质选择恰当的协方差函数。

参考资料