日本科学家训练大鼠神经元实现自主AI计算 近日,科技媒体Tom‘s Hardware报道了一项突破性研究。日本东北大学与未来大学的科研团队成功训练了大鼠皮层神经元,使这些活体细胞在“闭环储备池计算”的实时机器学习框架下,自主生成了复杂的时序信号。这项进展将生物计算推向了新的前沿。 活体神经元与计算系
近日,科技媒体Tom‘s Hardware报道了一项突破性研究。日本东北大学与未来大学的科研团队成功训练了大鼠皮层神经元,使这些活体细胞在“闭环储备池计算”的实时机器学习框架下,自主生成了复杂的时序信号。这项进展将生物计算推向了新的前沿。
该技术的核心在于将活体神经元与高密度微电极阵列、微流控设备进行集成。所构建的系统无需依赖外部持续指令,即可自主学习和生成周期性乃至混沌波形,独立执行AI计算任务,为生物计算开辟了新的可能性。
长期稳定更新的攒劲资源: >>>点此立即查看<<<

如何引导神经元完成计算?关键在于对其连接方式进行物理约束。研究发现,若任由培养的神经元自由生长,会形成高度同步化的网络,反而不利于处理复杂信息与学习目标信号。
团队采用PDMS(聚二甲基硅氧烷)微流控薄膜,将神经元胞体精准限制在128个微型微孔内,并通过设计的微通道连接,构建了格型与分层型两种网络结构。这种约束显著提升了网络动力学维度,使神经元间两两相关性从0.45降至0.12,增强了网络的动态响应能力。

测试显示,格型网络在所有目标波形生成任务中表现突出。该活体神经元系统能稳定生成周期为4秒、10秒和30秒的正弦波、三角波与方波,甚至能逼近三维混沌轨迹中的洛伦兹吸引子模型。在学习阶段,其预测信号与目标信号的相关性超过0.8,展现出较强的学习能力。
东北大学山本英明教授指出,该研究证实活体神经元网络可作为新型计算资源进行开发与利用。
目前该技术仍面临性能瓶颈:当训练停止、系统进入完全自主运行模式时,输出误差会逐渐累积;同时,反馈环路中约330毫秒的延迟也限制了系统对快速变化波形(如语音信号)的追踪能力。这些是走向实用化必须克服的难题。
研究团队计划通过开发专用硬件降低系统延迟,并拓展该技术在脑机接口与神经假体设备中的应用潜力。这条技术路径虽长,但每一步都指向更具想象力的未来。
参考研究:Online supervised learning of temporal patterns in biological neural networks under feedback control
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述