虽然人工智能在一些方面的表现已超越了人类,但这不代表它真的很聪明。相反,很多时候它还“很傻很天真”,仍然需要向人脑“取经”。8月16日,《自然·计算科学》在线发表了一项类脑计算领域的重要进展。借鉴大脑神经元复杂动力学特性,中国科学院自动化研究所李国齐研究员、徐波研究员团队联合清华大学、北京大学的科研人员,提出了新型类脑神经元模型构建方法。
“这项研究成果改善了传统模型向外拓展规模带来计算资源消耗增大的问题,为有效利用神经科学发展人工智能提供了新案例。”论文共同通讯作者李国齐说。
构建更加通用的人工智能,让模型具有更加广泛和通用的认知能力,是当前人工智能领域发展的重要目标。
目前流行的大模型路径是基于Scaling Law(尺度定律)去构建更大、更深和更宽的神经网络。这可称为“基于外生复杂性”的通用智能实现方法。然而,这一路径如今却面临着计算资源及能源消耗难以为继、可解释性不足等问题。
为此,研究团队通过设计微架构提升计算单元的内生复杂性,从而设计出“基于内生复杂性”的类脑神经元模型。实验结果验证了内生复杂性模型在处理复杂任务时的有效性和可靠性。
更重要的是,该模型对计算资源的利用效率更高,同时还显著减少了内存和计算时间的使用,从而提高了整体的运算效率。
李国齐表示,这项研究为将神经科学的复杂动力学特性融入人工智能,为在人工智能与神经科学之间架起桥梁提供了新的方法和理论支持,还为实际应用中的人工智能模型优化和性能提升提供了可行的解决方案。