随着集成电路技术的不断发展,芯片规模越来越大、集成度越来越高。与此同时,在设计和使用芯片时,掌握并管理其功耗也变得愈发重要。 为在设计或使用过程中管理好芯片功耗,杜克大学电子与计算机工程系教授、计算进化智能实验室联合主任陈怡然团队开发出一种新的人工智能模型——阿波罗(APOLLO)。该模型在硬件上可进行每秒数十亿次计算,理论上能用于预测任何类型计算机处理器(CPU)的功耗,且仅需要极低的额外硬件开销。它能提高处理器效率并为开发新型微处理器提供帮助,相关性能已在高性能微处理器上得到验证。 日前,相关成果在第54届IEEE/ACM年度微体系结构国际研讨会(MICRO-54)上发布,并获本届唯一“最佳论文奖”。 功耗管理大难题 在现代计算机处理器中,计算频率可达每秒数十亿次。随着晶体管密度和时钟频率显著增加,功耗也急剧增加。 功耗越大,芯片产生热量越快。如果不及时散热,设备温度就会升高,这将导致设备不能正常工作甚至被损坏。同时芯片内部的功耗与电流需求突然波动,会导致内部电磁问题,从而影响处理器的速度。此外,高功耗产生的热量也对封装、散热系统等提出更高要求。因此,功耗管理已经成为贯穿芯片设计和使用全流程的问题。 “CPU运行中涉及非常多的信号,其功耗每时每刻都在发生变化。”论文第一作者、陈怡然团队成员谢知遥告诉《中国科学报》,“因此,研究人员需要对其功耗有非常充分的了解,才能设计出性能更好的CPU,让其发挥最佳功能。” 在设计芯片时,设计工程师们往往依赖行业标准的功耗分析工具。比如,根据单个信号网络的切换及这些网络驱动的电容性负载进行计算。“人们想了解芯片的功耗,通常的方法是进行模拟。这类方法比较准确,但缺点是计算成本很高。”谢知遥解释说,“模拟的方法非常多,相关的模拟软件技术上也很成熟,但它模拟起来很慢,不能满足人们对掌握芯片即时功耗的需求。” 在实际应用中,CPU需要运行各种不同的程序,每个程序对应的功耗各不相同;即使运行同一个程序,在不同时刻,芯片的功耗也会发生瞬时变化。CPU被设计并制造出来后,如果全新场景的实际功耗比预先设计的高很多,就可能出现问题,但要详细掌握芯片在不同工况下的即时功耗并非易事。 “过去20多年里,功耗模型已被反复研究,但准确、快速、低成本、自动化地进行功耗分析仍然难以实现。”陈怡然告诉《中国科学报》,“由于很多功耗模型是设计师们针对某一款CPU人工调试而成,造成巨大的人力成本。同时,随着CPU设计日趋复杂,想要人工设计准确的功耗模型变得越来越困难。”
随着CPU设计日趋复杂,想要人工设计准确的功耗模型变得越来越困难
关注
打赏