中国科学院自動化研究所の李国齊と徐波の研究チームは、清華大学、北京大学などの研究機関と協力し、「内在的複雑性に基づく」脳様ニューロンモデル構築手法を提案しました。関連研究論文は「Nature・計算科学」誌に掲載されています。

本研究はまず、スパイクニューラルネットワークにおけるLIFモデルとHHモデルのダイナミクス特性の等価性を示し、HHニューロンが4つの特定の接続構造の時変パラメータによってLIFニューロンと等価になることを証明しました。この発見に基づき、研究チームはマイクロアーキテクチャを設計することで計算ユニットの内在的複雑性を向上させ、HHネットワークモデルがより大規模なLIFネットワークモデルの特性をシミュレートできるようにしました。

脳 大規模モデル AI

画像出典:画像はAIによって生成され、Midjourney社の画像ライセンスサービスを利用しています。

さらに、チームは本モデルをs-LIF2HHモデルに簡略化し、シミュレーション実験を通じて複雑なダイナミクス挙動を捉える有効性を検証しました。実験結果によると、HHネットワークモデルとs-LIF2HHネットワークモデルは表現能力と堅牢性において同様の性能を示し、HHネットワークモデルは計算資源消費においてより効率的でした。

この研究は、人工知能に神経科学の複雑なダイナミクス特性を統合するための新たな手法と理論的裏付けを提供するとともに、AIモデルの最適化と性能向上のための解決策を提供します。現在、研究チームはより大規模なHHネットワークとより複雑なニューロンに関する研究を深めており、大規模モデルの計算効率とタスク処理能力の更なる向上、そして実用化の加速を目指しています。

論文URL:https://www.nature.com/articles/s43588-024-00674-9