【摘 要】 多个研究成果表明:初始阶段的无限宽极限人工神经网络 (ANN) 等效于高斯过程 [16][4][7][13][6] ,这将神经网络与核方法成功地链接在了一起。而本文则证明:神经网络在训练期间的演化,也可以用核方法来描述。具体来说,在神经网络参数的梯度下降期间,将输入向量映射到输出向量的神经网络函数 fθf_\theta 也相应地遵循代价函数关于 神经正切核 (NTK) 的核梯度。神经正切核是描述人工神经网络泛化特性的核心。神经正切核在初始化时是随机的,在训练期间也会发生变化,但在无限宽极限下,它会收敛到显式的极限化核,并且在训练期间保持不变。神经正切核的这些特性使得我们在函数空间(而不是参数空间)中研究人工神经网络训练成为可能。我们认为:神经网络训练的收敛性可能与极限化神经正切核的正定性有关;在数据支持球体并且采用非线性非多项式情况下,我们也证明了极限化神经正切核的正定性。然后我们专注于最小二乘回归任务,表明在无限宽极限下,神经网络函数 fθf_\theta 在训练过程中遵循 线性微分方程。另外,我们发现输入相对于神经正切核的最大核主组份方向的收敛速度最快,表明了提前停止的理论动机。最后,我们对神经正切核进行了数值研究,观察其在宽网络中的表现,并将其与无限宽极限进行比较。

【原 文】 Jacot, A., Gabriel, F. and Hongler, C. (2018) ‘Neural Tangent Kernel: Convergence and Generalization in Neural Networks’, In Advances in neural information processing systems (pp. 8571-8580) 2018 [Preprint].

【代 码】https://github.com/google/neural-tangents

1 引言

人工神经网络 (ANN) 在机器学习的许多领域都取得了令人瞩目的成果。虽然人们早就知道神经网络可以用足够多的隐藏神经元 [11][14] 逼近任何函数,但至今仍然不清楚神经网络的优化会收敛到什么情形。事实上,神经网络优化问题的损失表面(Loss Surface)是高度非凸的,存在大量鞍点,可能会减慢收敛速度 [5]。许多结果 [3][17][18] 表明,对于足够宽的网络,几乎没有 “坏” 的局部最小值。最近,对初始化时损失几何形态的研究一直是精确研究的主题之一[12]。对浅层大宽度极限神经网络的训练动力学分析也取得了一些最新进展[15]。但据作者所知,深度神经网络的训练动力学问题在本文之前仍然是一个悬而未决的问题:请参阅下面的 第 1.1 节

神经网络的一个神秘特性是其良好的泛化特性,尽管通常会过度参数化 [20]。一个足够大的神经网络甚至可以在拟合随机标签的同时,对真实数据进行训练并获得良好的测试准确性,这看起来似乎自相矛盾 [23]。不过可以注意到,其实核方法在这种情况下也具有相同的性质 [1]

在无限宽极限时,神经网络的输出服从由某个核 [16][4][7][13][6] 描述的联合多元(或一元)高斯分布。这些核曾在贝叶斯推断、支持向量机中被广泛使用,并产生了与通过梯度下降训练的人工神经网络相媲美的结果 [2][13]。我们在本文中将看到:在无限宽极限下,神经网络在训练期间的表现也可以由一个相关的核来描述,我们称之为 神经正切核(NTK)

1.1 贡献

我们研究了将输入向量映射到输出向量的神经网络函数 fθf_\theta,其中 θθ 为神经网络的参数向量。由于隐藏层的宽度趋于无穷大,在初始阶段神经网络函数 fθf_\theta 会收敛到一个高斯分布([16][4][7][13][6]

在本文中,我们考察了这个无限宽极限的全连接网络,并描述了在训练期间神经网络函数 fθf_\theta 的动态,得出以下新结果:

  • 在梯度下降过程中,fθf_\theta 的动力学遵循函数空间中相对于某个极限化核的 核梯度下降,并且该核仅取决于网络深度、非线性选择和初始权重与偏差方差。
  • 神经网络在训练期间的收敛特性,可能与无限宽极限神经正切核的正定性相关。在球体上支持的数据集情况下,我们使用双激活函数 [4] 证明了这种正定性。训练集外的神经网络函数值 fθf_\theta 可以由神经正切核描述,这对于理解神经网络的泛化机理至关重要。
  • 对于最小二乘回归损失,神经网络函数 fθf_\theta 在无限宽极限下遵循线性微分方程,并且雅可比矩阵的特征函数是输入数据的 核主成分。这建立了神经网络与核方法的直接联系,并促进了使用 早期停止 来减低神经网络训练中的过拟合。
  • 针对人工数据集(单位圆上的点)和 MNIST 数据集,我们对上述理论结果进行了数值研究,特别是观察到宽人工神经网络的行为接近理论极限。

2 神经网络架构

在本文中,我们考虑全连接的人工神经网络,其层数从 00(输入)到 LL(输出),每层包含 n0,,nLn_0,\ldots, n_L 个神经元,并使用一个 Lipschitz 的、二次可微的、具有有界二阶导数的非线性激活函数 σ:RR\sigma : \mathbb{R} \rightarrow \mathbb{R}

本文重点研究 将 “参数空间中的 θθ” 映射到 “函数空间中的 fθf_\theta” 的神经网络实现函数 F(L):RPFF^{(L)} : \mathbb{R}^P \rightarrow \mathcal{F},其中 F\mathcal{F} 表示函数空间,PP 表示参数空间的维数。由于采用了全连接神经网络,所以 P==0L1(n+1)n+1P = \sum^{L−1}_{\ell =0} (n_\ell + 1) n_{\ell +1},这里的参数主要包括连接矩阵 W()Rn×n+1W^{(\ell)} \in \mathbb{R}^{n_\ell \times n_{\ell +1}} 和偏置向量 b()Rn+1b^{(\ell)} \in \mathbb{R}^{n_{\ell +1}},其中 =0,,L1\ell = 0,\ldots , L − 1。在我们的设置中,参数被初始化为独立同分布的高斯 N(0,1)\mathcal{N}(0, 1)

对于输入空间 Rn0\mathbb{R}^{n_0} 上的固定分布 pinp^{in},函数空间 F\mathcal{F} 被定义为 {f:Rn0RnL}\{f : \mathbb{R}^{n_0} \rightarrow \mathbb{R}^{n_L} \}。在此空间中,我们考虑根据如下由双线性公式定义的半范数 pin\| \cdot \|_{p^{in}}

f,gpin=Expin[f(x)g(x)]\langle f, g \rangle_{p^{in}} = \mathbb{E}_{x \sim p^{in}} [f(x)^{\top} g(x)]

在本文中,我们假设输入分布 pinp^{in} 是一个在有限数据集 x1,,xNx_1,\ldots, x_N 上的经验分布,也就是 Dirac 测度之和: 1Ni=0Nδxi\frac{1}{N} \sum^{N}_{i=0} \delta_{x_i}

我们用 fθ(x):=α~(L)(x;θ)f_{\theta}(x) :=\tilde{\alpha}^{(L)}(x; θ) 来定义神经网络函数,其中激活前函数 α~()(;θ):Rn0Rn\tilde{\alpha}^{(\ell)}(\cdot; θ):\mathbb{R}^{n_0} \rightarrow \mathbb{R}^{n_\ell} 和激活函数 α()(;θ):Rn0Rnα^{(\ell)} (\cdot; θ) : \mathbb{R}^{n_0} \rightarrow \mathbb{R}^{n_\ell} 从第 00 层到第 LL 层分别被定义为:

α(0)(x;θ)=xα~(+1)(x;θ)=1nW()α()(x;θ)+βb()α()(x;θ)=σ(α~()(x;θ))\begin{align*} \alpha^{(0)}(x; θ) &= x\\ \tilde{\alpha}^{(\ell+1)} (x; θ) &= \frac{1}{\sqrt{n_\ell}} W^{(\ell)} α^{(\ell)}(x; θ) + \beta b^{(\ell)}\\ α^{(\ell)} (x; θ) &= \sigma(\tilde{\alpha}^{(\ell)}(x; θ)) \end{align*}

其中非线性函数 σ\sigma 是逐元素应用的。标量 β>0\beta > 0 是一个参数,用于调整偏差 b()b^{(\ell)} 对训练的影响。

【备注 1】 我们对实现函数 F(L)F^{(L)} 的定义与经典的略有不同。通常情况下,并不存在因子 1n\frac{1}{\sqrt{n_\ell}} 和参数 β\beta,参数大多采用 LeCun 的初始化方法,即 Wij()N(0,1n)W^{(\ell)}_{ij} \sim \mathcal{N}(0, \frac{1}{n_\ell})bj()N(0,1)b^{(\ell)}_j \sim \mathcal{N}(0, 1) (或有时 bj()=0b^{(\ell)}_j = 0 )。虽然函数 F(L)(RP)F^{(L)}(\mathbb{R}^P) 的可表示性对于两种参数化方式都是相同的,但与传统参数化方法相比,我们的神经网络实现函数相对于权重和偏置的导数 Wij()F(L)∂_{W^{(\ell)}_{ij}} F^{(L)}bj()F(L)∂_{b^{(\ell)}_j} F^{(L)},可以分别按照 1n\frac{1}{\sqrt{n_\ell}}β\beta 进行缩放。

当隐藏层的宽度 n1,,nL1n_1,\ldots , n_{L-1} 增长到无穷大时,因子 1n\frac{1}{\sqrt{n_\ell}} 是获得一致性神经网络渐近行为的关键。不过,这些因子的一个副作用是:当 nn_\ell 很大时,它们会大大降低训练过程中权重的效果:引入因子 β\beta 可以平衡偏差和权重的影响。在我们的数值实验中(请参见第 6 节),采用 β=0.1\beta = 0.1 并使用 1.01.0 的学习率,这比平时大。这给出了类似于宽度为 100100 且学习率为 0.010.01 的经典网络的表现。

3 梯度下降与核梯度

3.1 神经网络训练的函数视角

神经网络训练的目的,是相对于函数代价 C:FRC : \mathcal{F} \rightarrow \mathbb{R} ,在函数空间 F\mathcal{F} 中找到最优的函数 fθf_\theta。不过,即便函数代价 CC 是凸函数,函数代价与神经网络实现函数之间构成的组合代价 CF(L):RPRC \circ F^{(L)} : \mathbb{R}^P \rightarrow \mathbb{R} 也通常是高度非凸的 [3]

我们将展示:在训练期间,神经网络函数 fθf_\theta 的更新遵从关于神经正切核 (NTK,见 第 4 节) 的核梯度下降(注:类似于参数空间中,参数的更新遵从梯度下降,只是发生在函数空间中)。这个结论使我们能够在代价 CC 为凸的函数空间 F\mathcal{F} 中训练神经网络。

注:常规梯度下降算法是在参数空间中,相对于代价函数找最优的参数。而此处从函数视角进行了解读,并试图通过神经网络训练,在函数空间中找到最优的函数,很有意思的概念。由于是对函数进行优化,因此 “代价” 的前面总是有一个定语 “函数”,以表明这是一个函数的代价。

我们可以将多维核 KK 视为一个将 Rn0×Rn0\mathbb{R}^{n_0} \times \mathbb{R}^{n_0} 映射至 RnL×nL\mathbb{R}^{n_L \times n_L} 的函数 ,可以将任何 (x,x)(x, x') 点对映射到一个 nL×nLn_L \times n_L 的矩阵,并且 K(x,x)=K(x,x)K(x, x') = K(x', x)^{\top}(等价于 KKFF\mathcal{F} \otimes \mathcal{F} 空间中的一个对称张量)。这样的核实际上定义了一个在 F\mathcal{F} 上的双线性映射,其取值是在所有相互独立的 x,xx, x' 点对上求期望(x,xpinx, x'\sim p^{in} ):

f,gK:=Ex,xpin[f(x)K(x,x)g(x)]\langle f, g \rangle_K := \mathbb{E}_{x,x'\sim p^{in}} [f (x)^{\top} K(x, x')g(x')]

fpin>0fK>0\|f\|_{p^{in}} > 0 \Longrightarrow \|f \|_K > 0 时,正切核 KK 关于 pin\|\cdot \|_{p^{in}} 是正定的。

我们用 F\mathcal{F}^* 表示 F\mathcal{F} 关于 pinp^{in} 的对偶,即对于某些 dFd \in \mathcal{F}μ=d,pinμ = \langle d, \cdot \rangle_{p^{in}} 范式的线性范式集合 μ:FRμ : \mathcal{F} \rightarrow \mathbb{R}F\mathcal{F} 的两个元素定义相同的线性范式,当且仅当它们在数据上相等。本文中的构造不依赖于(为了将 μμ 表示为 d,pin\langle d, \cdot \rangle_{p^{in}} 的形式而作出的)对元素 dFd \in \mathcal{F} 的选择。利用核 Ki,(x,)K_{i,\cdot}(x, \cdot) 的部分应用是 F\mathcal{F} 中函数的事实,可以定义一个 ΦK:FF\Phi_K : \mathcal{F}^* \rightarrow \mathcal{F} 的映射,将一个对偶元素 μ=d,pinμ = \angle d, \cdot \rangle_{p^{in}} 映射到函数 fμ=ΦK(μ)f_μ = \Phi_K (μ) ,其值为:

fμ,i(x)=μKi,(x,)=d,Ki,(x,)pinf_{μ,i}(x) = μK_{i,\cdot} (x, \cdot) = \langle d, K_{i,\cdot} (x, \cdot) \rangle_{p^{in}}

对于我们的有限数据集 x1,xnRn0x_1,\ldots , x_n \in \mathbb{R}^{n_0} 设置,代价函数 CC 仅取决于在数据点处的 fFf \in \mathcal{F} 值。作为结果,代价 CC 在点 f0Ff_0 \in \mathcal{F} 处的(函数性)导数可以被视为 F\mathcal{F}^* 的一个元素,我们记为 finCf0\partial^{in}_f C|_{f_0}。我们用 df0Fd|_{f_0} \in \mathcal{F} 来表示相应的对偶元素,使得 finCf0=df0,pin\partial^{in}_f C|_{f_0} = \langle d|_{f_0} , \cdot \rangle_{p^{in}}

核梯度 KCf0F\nabla_K C|_{f_0} \in \mathcal{F} 被定义为 ΦK(finCf0)\Phi_K ( \partial^{in}_f C|_{f_0})。与仅在数据集上定义的 finC\partial^{in}_f C 相比,由于使用了核 KK,使得核梯度能够泛化到数据集外的 xx 值:

KCf0(x)=1Nj=1NK(x,xj)df0(xj)\nabla_K C|_{f_0} (x) = \frac{1}{N} \sum^{N}_{j=1} K(x, x_j) d|_{f_0} (x_j)

当时间依赖函数 f(t)f(t) 能够满足如下微分方程时,则其遵循关于 KK 的核梯度下降:

tf(t)=KCf(t)\partial_t f(t) = −\nabla_K C|_{f(t)}

在核梯度下降期间,代价 C(f(t))C(f(t)) 也在逐步演化:

tCf(t)=df(t),KCf(t)pin=df(t)K2\partial_t C|_{f(t)} = − \langle d|_{f(t)}, \nabla_K C|_{f(t)} \rangle_{p^{in}} = − \| d|_{f(t)}\|^2_K

如果核 KK 关于 pin\| \cdot \|_{p^{in}} 是正定的,则能够保证代价收敛到 CC 的临界点:除了 df(t)pin=0\|d|_{f(t)}\|_{p^{in}} = 0 的点之外,代价会严格递减。如果代价是凸的并且下方有界,则函数 f(t)f(t) 会收敛到 tt \rightarrow \infty 时的全局最小值。

3.2 随机函数的近似

为了理解无限宽极限中 “神经网络参数的梯度下降” 与 “神经网络函数的核梯度下降” 之间的收敛特性,我们引入了一个简单模型,其灵感来自 [19] 的方法。

KK 可以通过选择 PP 个随机函数 f(p)f^{(p)} 来近似,这些函数 f(p)f^{(p)}F\mathcal{F} 上的任意分布中进行独立采样,其(非中心化的)协方差由核 KK 给出:

E[fk(p)(x)fk(p)(x)]=Kkk(x,x)\mathbb{E}[f^{(p)}_k(x) f^{(p)}_{k'}(x')] = K_{kk'}(x, x')

这些函数定义了 Flin:RPFF^{lin} : \mathbb{R}^P \rightarrow \mathcal{F} 的一种随机线性参数化形式

θfθlin=1Pp=1Pθpf(p)θ \mapsto f^{lin}_θ = \frac{1}{\sqrt{P}} \sum^{P}_{p=1} θ_p f^{(p)}

这种参数化形式的偏导数由下式给出

θpFlin(θ)=1Pf(p)\partial_{θ_p} F^{lin}(θ) = \frac{1}{\sqrt{P}} f^{(p)}

通过梯度下降优化代价 CFlinC \circ F^{lin},则参数遵循常微分方程(ODE):

tθp(t)=θp(CFlin)(θ(t))=1PfinCfθ(t)linf(p)=1Pdfθ(t)lin,f(p)pin\partial_t θ_p(t) = −\partial_{\theta_p} (C \circ F^{lin})(θ(t)) = − \frac{1}{\sqrt{P}} \partial^{in}_f C |_{f^{lin}_{θ(t)}} f^{(p)} = − \frac{1}{\sqrt{P}} \langle d|_{f^{lin}_{θ(t)} ,} f^{(p)} \rangle_{p^{in}}

作为结果,函数 fθ(t)linf^{lin}_{\theta(t)} 根据下式进行演化:

tfθ(t)lin=1Pp=1Ptθp(t)f(p)=1Pp=1Pdfθ(t)lin,f(p)pinf(p)\partial_t f^{lin}_{\theta(t)} = \frac{1}{\sqrt{P}} \sum^{P}_{p=1} \partial_t \theta_p(t) f^{(p)} = − \frac{1}{P} \sum^{P}_{p=1} \langle d|_{f^{lin}_{\theta(t)},} f^{(p)} \rangle_{p^{in}} f^{(p)}

其中右侧等于关于如下正切核的核梯度 K~C−\nabla_{\tilde{K}} C

K~=p=1PθpFlin(θ)θpFlin(θ)=1Pp=1Pf(p)f(p)\tilde{K}= \sum^{P}_{p=1} \partial_{\theta_p} F^{lin}(θ) \otimes \partial_{\theta_p} F^{lin}(θ) = \frac{1}{P} \sum^{P}_{p=1} f^{(p)} \otimes f^{(p)}

这是一个随机的 nLn_L 维核,其值为 K~ii(x,x)=1Pp=1Pfi(p)(x)fi(p)(x)\tilde{K}_{ii'}(x, x') = \frac{1}{P} \sum^{P}_{p=1} f^{(p)}_i (x) f^{(p)}_{i'} (x')

因此, 在参数空间中对代价 CFlinC \circ F^{lin} 执行梯度下降等效于在函数空间中使用正切核 K~\tilde{K} 执行核梯度下降。在极限为 PP \rightarrow \infty 时,根据大数定律,(随机)正切核 K~\tilde{K} 趋近于固定核 KK,这使得此方法成为相对于极限化核 KK 的核梯度下降的近似。

4 神经正切核的构造

对于在组合 CF(L)C \circ F^{(L)} 上使用梯度下降训练的神经网络,情况与第 3.2 节中的情况非常相似。在训练期间,神经网络函数 fθf_\theta 沿着相对于神经正切核的(负)核梯度演化:

tfθ(t)=Θ(L)Cfθ(t)\partial_t f_\theta(t) = −\nabla_{\Theta^{(L)}} C|_{f_\theta(t)}

神经正切核 (NTK) 为:

Θ(L)(θ)=p=1PθpF(L)(θ)θpF(L)(θ)\Theta^{(L)}(θ) = \sum^{P}_{p=1} \partial_{\theta_p} F^{(L)}(θ) \otimes \partial_{\theta_p} F^{(L)}(θ)

但是,与 FlinF^{lin} 不同的是,神经网络的实现函数 F(L)F^{(L)} 是非线性的。因此,导数 θpF(L)(θ)\partial_{\theta_p} F^{(L)}(θ) 和神经正切核均依赖于参数 θθ。因此,神经正切核在初始化时是随机的,并且在训练期间会发生变化,这使得对 fθf_\theta 收敛性分析更加困难。

在接下来的小节中,我们将展示在无限宽极限中,NTK 在初始化时变得确定并在训练期间保持不变。由于初始化时的 fθf_\theta 在极限上是高斯分布的,因此 fθf_\theta 在训练过程中的渐近行为可以在函数空间 F\mathcal{F} 中明确表示。

4.1 初始化

正如在 [16][4][7][13][6] 中所观察到的,对于 i=1,,nLi = 1,\ldots , n_L,输出函数 fθ,if_{\theta,i} 在无限宽极限时倾向于独立同分布的高斯过程(在附录中给出了我们设置中的证明):

【命题 1】 对于一个初始化时深度为 LL、具有 Lipschitz 非线性函数 σ\sigma 的神经网络,在层宽度趋向于极限 n1,,nL1n_1,\ldots , n_{L-1} \rightarrow \infty 时,其输出函数 fθ,k,k=1,,nLf_{\theta,k}, k = 1,\ldots , n_L, 倾向于独立同分布的高斯过程。该高斯过程是中心化的,且协方差 Σ(L)\Sigma^{(L)} 可以递归定义为:

Σ(1)(x,x)=1n0xx+β2\Sigma^{(1)}(x, x') = \frac{1}{n_0} x^{\top} x' + \beta^2

Σ(L+1)(x,x)=EfN(0,Σ(L))[σ(f(x))σ(f(x))]+β2\Sigma^{(L+1)}(x, x') = \mathbb{E}_{f \sim \mathcal{N}(0,\Sigma^{(L)})}[\sigma(f(x)) \sigma(f(x'))] + \beta^2

取关于中心化高斯过程 ff (协方差为 Σ(L)\Sigma^{(L)} )的期望。

【备注 2】 严格来说,不需要具有协方差 Σ(L)\Sigma^{(L)} 的合适高斯测度的存在:我们只处理 ffx,xx, x' 处的值(f(x)f (x)f(x)f (x' ) 上的联合测度只是二维中的一个高斯向量)。出于同样的原因,在【命题 1】 和【定理 1】 的证明中,我们将谈论高斯过程而不讨论它们的存在。

我们论文的第一个关键结果(在附录中证明)如下:在相同的限制下,神经正切核 (NTK) 在概率上收敛到一个明确的确定性限制。

【定理 1】 对于初始化时深度为 LL 、具有 Lipschitz 非线性 σ\sigma 的神经网络,在层宽 n1,,nL1n_1,\ldots , n_{L-1} \rightarrow \infty 的极限下,神经正切核(NTK)Θ(L)\Theta^{(L)} 在概率上收敛于确定的极限化核:

Θ(L)Θ(L)IdnL\Theta^{(L)} \rightarrow \Theta^{(L)}_\infty \otimes I d_{n_L}

标量核 Θ(L):Rn0×Rn0R\Theta^{(L)}_\infty : \mathbb{R}^{n_0} \times \mathbb{R}^{n_0} \rightarrow \mathbb{R} 递归定义为

Θ(1)(x,x)=Σ(1)(x,x)\Theta^{(1)}_\infty (x, x') = \Sigma^{(1)}(x, x')

Θ(L+1)(x,x)=Θ(L)(x,x)Σ˙(L+1)(x,x)+Σ(L+1)(x,x)\Theta^{(L+1)}_\infty (x, x') = \Theta^{(L)}_\infty (x, x') \dot{\Sigma}^{(L+1)}(x, x') + \Sigma^{(L+1)}(x, x')

其中:

Σ˙(L+1)(x,x)=EfN(0,Σ(L))[σ˙(f(x))σ˙(f(x))]\dot{\Sigma}^{(L+1)} (x, x') = \mathbb{E}_{f \sim \mathcal{N}(0,\Sigma^{(L)})}[\dot{\sigma} (f(x)) \dot{\sigma} (f(x'))]

取关于中心化高斯过程 ff (协方差 Σ(L)\Sigma^{(L)} )的期望,其中 σ˙\dot{\sigma} 表示 σ\sigma 的导数。

【备注 3】 根据 Rademacher 定理,σ˙\dot{\sigma} 在任何地方都有定义,除了可能在一组零勒贝格测度上。

请注意,极限化 Θ(L)\Theta^{(L)}_\infty 仅取决于 σ\sigma 的选择、网络深度和初始化时参数的方差(在我们的设置中等于 11)。

4.2 训练

我们的第二个关键结果是: NTK 在训练期间保持渐近固定。这适用于训练的稍微更一般的定义:参数根据训练方向 dtFd_t \in \mathcal{F} 做更新:

tθp(t)=θpF(L)(θ(t)),dtpin\partial_t\theta_p(t) = \langle \partial_{\theta_p} F^{(L)}(θ(t)), d_t \rangle_{p^{in}}

在梯度下降的情况下,dt=dfθ(t)d_t = −d|_{f_{\theta(t)}}(见第 3 节),但方向可能取决于另一个网络,例如生成对抗网络 [10]。我们只假设积分 0Tdtpindt\int^T_0 |d_t|_{p^{in}} dt 在宽度趋于无穷大时保持随机有界,这已得到验证,例如第 5 节的最小二乘回归。

【定理 2】 假设 σ\sigma 是 Lipschitz 、二次可微的非线性函数,具有有界的二阶导数。对于能够使积分 0Tdtpindt\int^T_0 |d_t|_{p^{in}} dt 保持随机有界的任何 TT ,在 n1,,nL1n_1,\ldots , n_{L-1} \rightarrow \infty 时,我们有(对于 t[0,T]t \in [0, T ] 的均匀分布):

Θ(L)(t)Θ(L)IdnL\Theta^{(L)}(t) \rightarrow \Theta^{(L)} \infty \otimes I d_{n_L}

因此,在此极限下,fθf_\theta 的动力学可以由如下微分方程描述:

tfθ(t)=ΦΘ(L)IdnL(dt,pin)\partial_t f_\theta(t) = \Phi_{\Theta^{(L)}_\infty \otimes Id_{n_L}} \left( \langle d_t, \cdot \rangle_{p^{in}} \right)

【备注 4】 正如定理的证明(在附录中)所示,隐藏层中各个激活的训练过程中的变化随着宽度的增加而缩小。然而,它们的集体变化是显着的,这使得下层的参数可以学习:在【定理 1】 的极限化神经正切核 Θ(L+1)(x,x)\Theta^{(L+1)}_\infty (x, x') 的公式中,第二个求和 Σ(L+1)\Sigma^{(L+1)} 表示源于最后一层的学习,而第一个求和表示由较低层执行的学习。

正如第 3 节中所讨论的:对于正定核,可以保证核梯度下降收敛到代价 CC 的临界点。如果导数 θpF(L)\partial_{\theta_p} F^{(L)}, p=1,,Pp = 1,\ldots , P 的跨度在 F\mathcal{F} 中变得密集,则极限化 NTK 是正定的。 pinp^{in}-范式随着宽度增长到无穷大。对于测量 pinp^{in} 和非线性的大家族,最后一层的预激活(它们本身出现在 θpF(L)\partial_{\theta_p} F^{(L)} 中,对应于最后一层的连接权重)的跨度在 F\mathcal{F} 中变得密集(参见例如 [11][14] 关于神经网络和近似的经典定理)。在球体上支持的数据集下,极限化 NTK 的正定性可以使用高斯积分和现有的正定性准则来显示,如以下命题所示,在 附录 A.4 中证明:

【命题 2】 对于非多项式 Lipschitz、非线性 σ\sigma,对于任何输入维度 n0n_0,如果 L2L≥2,则极限化 NTK Θ(L)\Theta^{(L)} \infty 到单位球体 Sn01={xRn0:xTx=1}\mathbb{S}^{n_0−1} = \{x \in \mathbb{R}^{n_0} : x^T x = 1\} 的约束是正定的。

5 最小二乘回归

给定目标函数 ff^* 和输入分布 pinp^{in},最小二乘回归代价为

C(f)=12ffpin2=12Expin[f(x)f(x)2]C(f ) = \frac{1}{2} \|f − f^*\|^2_{p^{in}} = \frac{1}{2} \mathbb{E}_{x \sim p^{in}}[|f(x) − f^*(x)|^2]

【定理 1】 和【定理 2】 适用于以此类代价训练的神经网络。实际上,训练方向的范数 d(f)pin=ffpin|d(f)|_{p^{in}} = |f^* − f |_{p^{in}} 在训练期间严格递减,限制了积分。因此,我们对函数 ftf_t 在使用核 KK 进行核梯度下降期间的行为感兴趣(我们当然对 K=Θ(L)IdnLK = \Theta^{(L)} \infty \otimes I d_{n_L} 的情况特别感兴趣):

tft=ΦK(ff,pin)\partial_t f_t = \Phi_K \left( \angle f^* − f, \cdot \rangle_{p^{in}} \right)

这个微分方程的解可以用映射 :fΦK(f,pin)\prod : f \mapsto \Phi_K \left( \langle f, \cdot \rangle_{p^{in}} \right) 表示:

ft=f+et(f0f)f_t = f^* + e^{−t \prod}(f_0 − f^*)

其中 et=Σk=0(t)kk!ke^{−t \prod} = \Sigma^\infty_{k=0} \frac{(−t)^k}{k!}\prod^kt−t \prod 的指数。如果 \prod 可以通过具有特性值 λiλ_i 的特性函数 f(i)f^{(i)} 对角化,则指数 ete^{-t \prod} 具有与特性值 etλie^{−t λ_i} 相同的特性函数。对于大小为 NN 的有限数据集 x1,,xNx_1,\ldots , x_N ,映射 \prod 采用以下形式

(f)k(x)=1Ni=1Nk=1nLfk(xi)Kkk(xi,x)\prod(f)_k(x) = \frac{1}{N} \sum^{N}_{i=1} \sum^{n_L}_{k'=1} f_{k'}(x_i) K_{kk'}(x_i, x)

映射 $\prod $ 至多有 NnLN n_L 个正特性函数,它们是数据相对于核 KK [21][22] 的核主成分 f(1),,f(NnL)f^{(1)},\ldots , f^{(Nn_L)}。相应的特性值 λiλ_i 是组件捕获的方差。

沿着 \prod 的特性空间分解差值 (ff0)=Δf0+Δf1++ΔfNnL(f^* − f_0) = \Delta^0_f + \Delta^1_f +\ldots + \Delta^{Nn_L}_f,函数 ftf_t 的轨迹为

ft=f+Δf0+i=1NnLetλiΔfif_t = f^* + \Delta^0_f+ \sum^{N n_L}_{i=1} e^{−t λ_i} \Delta^i_f

其中 Deltaf0Delta^0_f 位于 \prod 的核(零空间)中,而 Δfif(i)\Delta^i_f \propto f^{(i)}

上述分解可以看作是使用提前停止的动机。沿着对应于较大特性值 λi 的特性空间,收敛确实更快。因此,提前停止将收敛集中在最相关的核主成分上,同时避免将特性空间中的主成分拟合到具有较低特性值的方向(这些方向通常是“噪声较大”的方向:例如,在 RBF 核的情况下,较低的特性值对应到高频函数)。

请注意,根据映射 ete^{-t \prod} 的线性,如果 f0f_0 使用高斯分布进行初始化(如无限宽极限中的神经网络的情况),则 ftf_t 对于所有时间 tt 都是高斯分布。假设核对数据是正定的(意味着 NnL×NnLN n_L \times N n_L Gram 矩阵 K~=(Kkk(xi,xj))ik,jk\tilde{K} = (K_{kk'} (x_i, x_j))_{ik,jk'} 是可逆的),当 tt \rightarrow \infty 极限时,我们得到 f=f+Δf0=f0ΣiΔfif_{\infty} = f^* + \Delta^0_f = f_0 − \Sigma_i \Delta^i_f 采用以下形式

f,k(x)=κx,kTK~1y+(f0(x)κx,kTK~1y0)f_{\infty ,k}(x) = κ^T_{x,k} \tilde{K}^{−1} y^* + ( f_0(x) − κ^T_{x,k} \tilde{K}^{−1} y_0 )

NnlNn_l-向量 κx,kκ_{x,k}, yy^*y0y_0

κx,k=(Kkk(x,xi))i,ky=(fk(xi))i,ky0=(f0,k(xi))i,kκ_{x,k} = (K_{kk'} (x, x_i))_{i,k'}\\ y^* = (f^*_k (x_i))_{i,k}\\ y_0 = (f_{0,k}(x_i))_{i,k}

第一项均值,具有重要的统计解释:它是给定函数 fkN(0,Θ(L))f_k \sim \mathcal{N}(0, \Theta^{(L)} \infty) 和条件 fk(xi)=fk(xi)f_k(x_i)= f^*_k (x_i) 的高斯先验的最大后验 (MAP) 估计。等效地,当正则化趋于零 ( λ0λ \rightarrow 0) 时,它等于核岭回归 [22]。第二项是中心高斯分布,其方差在数据集的点上消失。

6 数值实验

暂略

7 结论

本文介绍了一种研究神经网络的新工具,即神经正切核 (NTK),它描述了梯度下降过程中神经网络的局部动态。这导致了神经网络训练和核方法之间的新联系:在无限宽极限中,神经网络可以直接在函数空间中通过 NTK 的限制来描述,一个显式常量核 Θ(L)\Theta^{(L)} \infty ,它仅取决于关于它的深度、非线性和参数初始化方差。更准确地说,在这个限制下,神经网络梯度下降被证明等同于关于 Θ(L)\Theta^{(L)} \infty 的核梯度下降。因此,NTK 的极限是理解神经网络泛化特性的有力工具,它允许人们研究深度和非线性对网络学习能力的影响。使用 NTK 的训练分析允许将神经网络训练的收敛与极限化 NTK 的正定性联系起来,并导致对早期停止方法所青睐的方向的表征。

参考文献

  • [1] M. Belkin, S. Ma, and S. Mandal. To understand deep learning we need to understand kernel learning. arXiv preprint, Feb 2018.
  • [2] Y. Cho and L. K. Saul. Kernel methods for deep learning. In Advances in Neural Information Processing Systems 22, pages 342–350. Curran Associates, Inc., 2009.
  • [3] A. Choromanska, M. Henaff, M. Mathieu, G. B. Arous, and Y. LeCun. The Loss Surfaces of Multilayer Networks. Journal of Machine Learning Research, 38:192–204, nov 2015.
  • [4] A. Daniely, R. Frostig, and Y. Singer. Toward deeper understanding of neural networks: The power of initialization and a dual view on expressivity. In D. D. Lee, M. Sugiyama, U. V. Luxburg, I. Guyon, and R. Garnett, editors, Advances in Neural Information Processing Systems 29, pages 2253–2261. Curran Associates, Inc., 2016.
  • [5] Y. N. Dauphin, R. Pascanu, C. Gulcehre, K. Cho, S. Ganguli, and Y. Bengio. Identifying and attacking the saddle point problem in high-dimensional non-convex optimization. In Proceedings of the 27th International Conference on Neural Information Processing Systems Volume 2, NIPS’14, pages 2933–2941, Cambridge, MA, USA, 2014. MIT Press.
  • [6] A. G. de G. Matthews, J. Hron, M. Rowland, R. E. Turner, and Z. Ghahramani. Gaussian process behaviour in wide deep neural networks. In International Conference on Learning Representations, 2018.
  • [7] A. G. de G. Matthews, J. Hron, R. E. Turner, and Z. Ghahramani. Sample-then-optimize posterior sampling for bayesian linear models. In NIPS workshop on Advances in Approximate Bayesian Inference, 2017.
  • [8] S. S. Dragomir. Some Gronwall Type Inequalities and Applications. Nova Science Publishers, 2003.
  • [9] T. Gneiting. Strictly and non-strictly positive definite functions on spheres. Bernoulli, 19(4):1327–1349, 2013.
  • [10] I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio. Generative Adversarial Networks. NIPS’14 Proceedings of the 27th International Conference on Neural Information Processing Systems - Volume 2, pages 2672–2680, jun 2014.
  • [11] K. Hornik, M. Stinchcombe, and H. White. Multilayer feedforward networks are universal approximators. Neural Networks, 2(5):359 – 366, 1989.
  • [12] R. Karakida, S. Akaho, and S.-i. Amari. Universal Statistics of Fisher Information in Deep Neural Networks: Mean Field Approach. jun 2018.
  • [13] J. H. Lee, Y. Bahri, R. Novak, S. S. Schoenholz, J. Pennington, and J. Sohl-Dickstein. Deep neural networks as gaussian processes. ICLR, 2018.
  • [14] M. Leshno, V. Lin, A. Pinkus, and S. Schocken. Multilayer feedforward networks with a nonpolynomial activation function can approximate any function. Neural Networks, 6(6):861–867, 1993.
  • [15] S. Mei, A. Montanari, and P.-M. Nguyen. A mean field view of the landscape of two-layer neural networks. Proceedings of the National Academy of Sciences, 115(33):E7665–E7671, 2018.
  • [16] R. M. Neal. Bayesian Learning for Neural Networks. Springer-Verlag New York, Inc., Secaucus, NJ, USA, 1996.
  • [17] R. Pascanu, Y. N. Dauphin, S. Ganguli, and Y. Bengio. On the saddle point problem for non-convex optimization. arXiv preprint, 2014.
  • [18] J. Pennington and Y. Bahri. Geometry of neural network loss surfaces via random matrix theory. In Proceedings of the 34th International Conference on Machine Learning, volume 70 of Proceedings of Machine Learning Research, pages 2798–2806, International Convention Centre, Sydney, Australia, 06–11 Aug 2017. PMLR.
  • [19] A. Rahimi and B. Recht. Random features for large-scale kernel machines. In Advances in Neural Information Processing Systems 20, pages 1177–1184. Curran Associates, Inc., 2008.
  • [20] L. Sagun, U. Evci, V. U. G ̈ uney, Y. Dauphin, and L. Bottou. Empirical analysis of the hessian of over-parametrized neural networks. CoRR, abs/1706.04454, 2017.
  • [21] B. Sch ̈ olkopf, A. Smola, and K.-R. M ̈ uller. Nonlinear component analysis as a kernel eigenvalue problem. Neural Computation, 10(5):1299–1319, 1998.
  • [22] J. Shawe-Taylor and N. Cristianini. Kernel Methods for Pattern Analysis. Cambridge University Press, New York, NY, USA, 2004.
  • [23] C. Zhang, S. Bengio, M. Hardt, B. Recht, and O. Vinyals. Understanding deep learning requires rethinking generalization. ICLR 2017 proceedings, Feb 2017.