作者:Lilian Weng
翻译:老齐
与本文相关书籍推荐:《数据准备和特征工程》
最近,我聆听了Naftali Tishby教授的演讲“深度学习中的信息论”,感觉很有意思。他在演讲中说明了如何将信息论用于研究深度神经网络的增长和转换,他利用IB(Information Bottleneck)方法,为深度神经网络(DNN)开创了一个新的领域,由于参数的数量成指数增长,导致传统的学习理论在该领域均行不通。另外的一种敏锐观察显示,在DNN训练中包含了两个迥异的阶段:首先,训练网络充分表示输入数据,最小化泛化误差;然后,通过压缩输入的表示形式,它学会了忘记不相关的细节。
马尔科夫过程是一个“无记忆”(也称为“马尔科夫性质”)的随机过程,马尔科夫链是一类包含多个离散状态的马尔科夫过程,也就是说,过程的未来状态的条件概率仅由当前状态决定,而不取决于过去状态。
KL散度用于度量一个概率分布p
偏离另一个期望的概率分布q
的程度,它是不对称的。
当 == 时,达到最小值零。
互信息度量两个变量之间的相互依赖程度,它把一个随机变量通过另一个随机变量所获得的“信息量”进行量化,互信息是对称的。
对于任意的马尔科夫链: ,我们有。
深度神经网络可以看作是一个马尔科夫链,因此当我们沿着DNN层向下移动时,层与输入之间的互信息只会减少。
对于两个可逆函数,,互信息仍然是:。
例如,如果我们在DNN的一个层中调整权重,它不会影响这个层和另一个层之间的互信息。
训练数据来自和联合分布的抽样观测,输入变量和隐藏层的权重都是高维随机变量。真实值和预测值是分类设置中较小维度的随机变量。
图1:一个深度神经网络的结构,它包含标签、输入层、隐藏层和预测值。
如果我们将DNN的隐藏层标记为,如图1所示,我们可以将每一层看作是一个马尔科夫链的状态:。根据DPI,我们有:
DNN的设计目的是学习如何描述,以便预测;最终,将压缩成只包含与相关的信息。Tishby将这一过程描述为“相关信息的逐次细化”。
DNN依次实现了的内部表示,一组隐藏层。根据信息平面定理,通过它的编码器和解码器信息来描述每一层,编码器即对输入数据编码,而解码器则将当前层中的信息转换为目标输出。
准确地说,在一个信息平面图中:
图2:50个DNN隐藏层的编码器和解码器的交互信息。不同层有不同色彩的编码器,绿色是紧挨着输入的一层,橙色是离输入最远的一层。有三个快照,分别是初始阶段、400个阶段和9000个阶段。
图2中的每个点表示一个隐含层的编码器或解码器的互信息(不采用正则化;没有权重衰减,没有丢失,等等)。它们按照预期的那样向上移动,因为关于真实标签的知识在增加(准确性在提高)。在早期阶段,隐藏层了解了很多关于输入的信息,但是之后它们开始压缩以忘记输入的一些信息。Tishby认为,“学习的最重要的部分实际上是遗忘”。
图3:这是图2的汇总视图。在泛化误差变得非常小之后进行了压缩。
对各层权重的均值和标准差的及时跟踪还显示了训练过程的两个优化阶段。
图4:各层权重梯度的均值和标准差的范数作为训练函数。不同的层用不同的颜色。
在早期阶段中,平均值比标准差大三个量级。 经过足够的时间段后,误差趋于饱和,随后标准差变得更大。离输出越远的层,噪声就越大,这是因为噪声可以通过反向传播过程放大和累积(而不是由于层的宽度)。
经典学习理论定义的泛化范围为:
该定义指出,训练误差和泛化误差之间的差异受假设空间大小和数据集大小的限制。假设空间越大,泛化误差就越大。
但是,它不适用于深度学习。网络越大,需要学习的参数越多。有了这种泛化界限,较大的网络(较大的)会有更糟的界限。我们直觉上会认为更大的网络能够实现更好的性能和更高的表达能力。这里却是和直觉相反。
为了应对这种违反直觉的观察数据,Tishby等人提出了DNN的新输入压缩范围。
首先让我们将作为输入变量的分区。此分区将有关标签同质性的输入压缩为小单元格,所有单元格可以覆盖整个输入空间。如果预测输出二进制值,则可以用代替假设的基数。
当比较大时,的大小大约是。ϵ所在的每个单元格的大小是。因此,我们有。那么,输入压缩范围就成了:
图5:黑线是可实现的最佳IB极限。在一个有限的样本集上训练时,红线对应样本外IB失真的上限。ΔC是复杂性的差距和ΔG是泛化的差距。
拥有更多的层会给我们带来计算上的好处,并加快训练过程,以获得更好的泛化效果。
图6:有更多的隐藏层,优化时间更短(阶段更少)。
通过随机松弛算法进行压缩:根据扩散方程,k层的松弛时间与该层压缩量: 的指数成正比。我们可以按照计算层压缩。因为,所以我们期望使用更多的隐藏层(更大的)来使训练周期呈指数式减少。
拟合更多的训练数据需要通过隐藏层捕获更多的信息,随着训练数据量的增加,解码器互信息 (还记得吗,这与泛化误差直接相关)被推高,更接近理论IB的边界。Tishby强调,与标准理论不同,决定泛化的是互信息,而不是层的大小或VC维度
图7:不同大小的训练数据用不同颜色编码。这里绘制了多个聚合网络的信息平面。训练数据越多,泛化效果越好。
原文链接:lilianweng.github.io/lil-log/201…
搜索技术问答的公众号:老齐教室
在公众号中回复:老齐,可查看所有文章、书籍、课程。
觉得好看,就点赞转发/strong>