宾夕法尼亚大学的研究人员引入了一种替代的人工智能方法,用于设计和编程基于循环神经网络的储水池计算机
Pennsylvania researchers introduce alternative AI method for designing and programming reservoir computers based on recurrent neural networks.
人脑是自然界创造的最复杂的系统之一。神经元通过形成重复的神经连接并通过脉冲传递信息来相互交互。由于它们令人难以置信的逻辑推理和数字分析方法,研究人员试图将这些生物神经网络方法应用到当前的人工神经系统中。神经计算方法涉及动力系统中的循环神经网络和机器学习中计算机体系结构的神经复制品。
研究小组声称,当前神经网络技术的进步可以实现完全分布式神经执行软件虚拟化和逻辑电路。这将在不需要任何示例数据或状态空间采样的情况下实现,而这些通常是训练和改进这些神经网络所需的。基本上,这意味着人工智能在虚拟化和数字电路设计等领域可能实现更高效和更稳健的应用。
由于需要理解神经计算机与现代硅计算机之间的关系,目前对神经计算的访问受到限制。这需要一个具有管理许多类似计算机的能力的简单一组控制方程的神经网络。由于这组简单的方程,像储备计算机(RC)这样的网络在理论上是被很好理解的,它是一个循环神经网络(RNN)。在接收输入后,它们会作为一组内部状态演变,并且输出是这些状态的加权和。
- 我为什么没有放弃成为数据科学家的梦想的8个理由,为什么你也不应该放弃
- CarperAI推出OpenELM:一个开源库,旨在通过代码和自然语言使语言模型能够进行进化搜索
- 使用亚马逊SageMaker Hyperband自动模型调优,有效解决分布式训练收敛问题
宾夕法尼亚大学的研究团队开发了两个名为状态神经编程(SNP)和动态神经编程(DNP)的框架。使用RC来解决解析方程和执行操作,使用SNP。DNP用于编程RC以将混沌动力系统存储为随机访问内存,实现神经逻辑与非、或、非或、异或和异或非。
通过“具有SNP的开环架构”,研究人员获得了一个具有多项式时间滞后输入的编程矩阵,可用于操作,如高通滤波器。为了解决算法,使用具有SNP的闭环架构,其中对一个RNN进行编程以存储随机的、不可微分的时间序列的重要时间历史,并执行短时傅里叶变换。
模拟和虚拟化需要对连续时间RNN的时间历史进行编程,因此实施了具有DNP方法的闭环RNN。研究人员试图模拟一个具有2000个状态的主RNN和15个状态的客户端RNN的反馈动力学。他们发现这只是模拟了一个混沌的洛伦兹吸引子,而没有任何样本。这得出以下结论:
研究人员发现,可以完全可编程的替代计算框架,这挑战了模仿硅硬件的当前方法。相反,他们建议专注于创建特定的编程系统,以最大化每个独特系统的完全计算能力。