技术编辑:王治治丨发自 思否疗养院
SegmentFault 思否报道丨公众号:SegmentFault
近日,谷歌开源了一个用 JAX 编写的软件库 Neural Tangents,这是一个用于高性能机器学习研究的系统,只在帮助同时构建宽度可变的 AI 模型。
最厉害的是,它让数据科学家们只需使用五行代码就可以一次性构建和训练无限宽网络的集成模型。谷歌表示,这可以让人们对模型的行为有“前所未有的 洞察力,并帮助打开机器学习的黑匣子”。
正如谷歌高级研究科学家 Samuel S. Schoenholz 和研究工程师 Roman Novak 在一篇文章中所解释的那样,使人工智能研究取得进展的关键洞察力之一是,增加模型的宽度会导致更多的行为规律性,并使其更容易理解。
通过重复实验,所有的神经网络模型都包含以相互连接的层级排列的神经元(数学函数),它们从输入数据中传输信号,并缓慢调整每个连接的突触强度(权重)。这就是它们如何提取特征并学习进行预测的方式。
而允许无限宽的机器学习模型倾向于收敛到另一类更简单的模型,称为高斯过程。
在这个极限中,复杂的现象归结为简单的线性代数方程,可以作为研究人工智能的透镜。但是,推导出无限宽极限的有限模型需要数学专业知识,必须针对每个架构分别求出。而且,一旦推导出无限宽模型后,要想出一个高效、可扩展的实现,需要工程上的熟练程度,可能需要几个月的时间。
此次谷歌开源的软件库 Neural Tangents,则可以大幅降低操作难度和时间,让数据科学家们只需使用 5 行代码就可以一次性的构建和训练无限宽度网络的集成模型。并且根据谷歌工作人员表示,所构建的模型基本可以应用于任何的常模模型问题。
"我们看到,模仿有限神经网络、无限宽网络的性能遵循类似的层次结构,全连接网络的性能比卷积网络差,而卷积网络的性能又比宽残差网络差,"研究人员写道。"然而,与常规训练不同的是,这些模型的学习动态是完全可牵引的闭合形式,这使得人们可以对其行为有新的洞察力。"
GitHub 地址:
https://github.com/google/neu...
Google Colaboratory 笔记:
https://colab.research.google...