问题描述
人工智能技术的进步得益于人类大脑的研究进展和发现。通过学习人类视觉神经系统,发现了卷积神经网络解决机器视觉的问题;通过学习人类大脑的奖励机制,发现了强化学习的方法,大大提升了机器学习效率。但在能量的使用方面,机器对数据的处理和对能量的消耗是大脑的数千倍。由此引出了这个重要科学问题:如何实现低能耗人工智能?解决这一问题可能的两条路径,一是算力硬件领域的进步,仿照人类神经元的组成和工作原理,突破现有计算机的架构,实现低能耗人工智能计算。二是算法领域的进步,发现和学习人类神经元信息处理的方式,突破信息表征新范式,实现低数据处理量的人工智能计算方法,实现低能耗人工智能。
问题背景
随着机器学习和深度学习方法和技术的快速发展,近年来用于训练深度学习模型的计算能力急剧增加。深度学习研究所需的计算量每隔几个月就会翻一番,从 2012 年到 2018 年估计增加了 30万倍。深度学习的高密度计算不仅产生惊人的碳排放且成本高昂。而ChatGPT这类通用人工智能模型的成功以及大模型训练的需求更加速了这一增长。人工智能技术尤其是深度学习技术的进步得益于学习人类神经系统和人类大脑的信息处理机制,这大大提升了机器学习效率。但在能量的使用方面,机器对数据的处理和对能量的消耗是大脑的数千倍。
最新进展(截止问题发布年度)
2019年业界提出“Green AI”的概念,指在不增加或降低计算成本的情况下产生创新的AI研究,目标是实现绿色高效的AI技术和系统。总结现阶段最流行的基于机器学习实现绿色人工智能的方法,主要分为三大类,即面向AI框架和算法级优化、面向操作系统级优化和硬件级优化。
在AI框架和算法优化中,产业主要采用框架优化、算法设计、超参数调优和数据集优化提高效率。而其中算法设计优化一是优化并行计算方法,如数据并行、模型并行等提高计算效率,二是采用开发零样本、少零样本训练方法,提升训练效率。在操作系统优化中,主要采用分布式ML计算方法,如参数服务器框架,由工作节点和服务器节点组成,专注于 ML 算法的分布式和高效执行。在硬件优化中,主要采用AI加速计算芯片优化和平台级缓存优化。在AI加速计算芯片方面,一是通过设计更适合模型计算的架构,优化计算能效,如Google的TPU、英伟达的GPU等;二是通过提高芯片制造的集成度,由5ns向2-3ns演进,提高芯片的集成密度,实现算力提升和计算节能;三是改进冯.诺依曼架构的计算机原理,采用存算一体、近存计算等架构,突破“内存墙”、“网络墙”。在平台级缓存优化中,采用应用程序级缓存进行预计算和缓存频繁访问任务可大幅提高计算能效,使用 DRAM 和闪存设备作为缓存可以跨应用共享。综上所述,现阶段绿色AI研究刚处于起步阶段,未来面临的关键难点与挑战主要有两点,一是摩尔定律接近极限,计算机材料和架构的突破是关键难点;二是创新的信息表征和处理方式是算法优化的关键和难点,如何仿照人脑信息表征和处理,控制和分配神经元活动,实现低功耗智能。重要意义
如何实现低能耗人工智能已成为亟待解决的重大科学问题。绿色AI领域的研究和突破将带动通用人工智能在各个应用领域的广泛发展,解决人工智能产业的高耗能问题,促进全社会的数智化转型,助力实现碳达峰、碳中和的目标。同时在跨领域促进方面,可促进生物学、心理学、神经科学的发展和发现,促进数学、计算机科学的发展。对多个领域的科技发展产生重大影响和引领作用,带来重大经济和社会效益。