提出了一种将任意大小的深度神经网络折叠成具有多个时间延迟反馈回路的单个神经元的方法,称为Folded-in-time DNN。
第一眼看到感觉类似于操作系统里面的多线程,操作系统使用中断来模拟多线程,用极快的速度使得“看上去”多个程序在同时运行。
emerge 浮现
摘要:深度神经网络是应用最广泛的机器学习工具之一,在广泛的任务中表现出出色的表现。我们提出了一种将任意大小的深度神经网络折叠成具有多个延时反馈回路的单个神经元的方法。这种单神经元深度神经网络只包括一个单一的非线性和适当调整的反馈信号的调制。网络状态以神经元动力学的时间展开而出现。通过调整环路内的反馈调制,我们调整了网络的连接权值。这些连接权值是通过反向传播算法来确定的,其中必须同时考虑延迟诱导的和本地网络连接。我们的方法可以完全表示标准的深度神经网络(DNN),包含稀疏的dnn,并将DNN的概念扩展到动态系统的实现。该新方法,我们称之为时间折叠DNN(Fit-DNN),在一组基准测试任务中显示出了良好的性能。
仅用一个神经元实现它们的功能需要保留层的逻辑顺序,同时找到一种将层内的操作排序的方法。这只能通过暂时 间隔开之前同时起作用的过程来实现。一个神经元在正确的时间接收正确的输入,依次模拟每一层的每个神经元。以前连接相邻层的连接现在必须在不同的时间连接单个神经元, 因此层间连接变成了延迟连接。
源文献地址:https://doi.org/10.1038/s41467-021-25427-4
The source code to reproduce the results of this study is freely available on GitHub:
https://github.com/flori-stelzer/deep-learning-delay-system/tree/v1.0.0.