近日,中国科学院自动化研究所的李国齐与徐波研究团队,联合清华大学、北京大学等科研机构,提出了一种“基于内生复杂性”的类脑神经元模型构建方法。相关研究论文已发表在《自然・计算科学》杂志上。

该研究首先展示了脉冲神经网络中LIF模型与HH模型在动力学特性上的等效性,证明了HH神经元可以通过四个特定连接结构的时变参数与LIF神经元等效。基于这一发现,研究团队通过设计微架构,提升了计算单元的内生复杂性,使得HH网络模型能够模拟更大规模的LIF网络模型特性。

大脑 大模型  AI

图源备注:图片由AI生成,图片授权服务商Midjourney

此外,团队还将该模型简化为s-LIF2HH模型,并通过仿真实验验证了其在捕捉复杂动力学行为方面的有效性。实验结果显示,HH网络模型和s-LIF2HH网络模型在表示能力和鲁棒性上表现相似,而HH网络模型在计算资源消耗方面更为高效。

这一研究为将人工智能融入神经科学复杂动力学特性提供了新的方法和理论支持,同时为AI模型的优化与性能提升提供了解决方案。目前,研究团队已经开始对更大规模的HH网络及更复杂神经元进行深入研究,预计将进一步提升大模型的计算效率与任务处理能力,加速其实际应用的落地。

论文地址:https://www.nature.com/articles/s43588-024-00674-9