随着应用的复杂性不断增加,单纯堆积 CPU 内核已经无法满足应用程序对于性能、功耗、成本的要求。人们开始使用越来越多的倾向于各种非 CPU 计算单元。
作为老牌芯片厂商,英特尔近年来在 AI 硬件领域的投入取得了“鱼与熊掌”兼得的成果。
在硬件平台的构建上,英特尔已经打造了一个完整的 XPU 平台——从 CPU 到 GPU 到 FPGA 再到深度学习专用加速器,适用于各种类型的 AI 需求。
在新近的数代产品中,英特尔的每个 CPU 核心均增添了内置 AI 加速能力,无需任何独立加速器即可贴合一般用户需求。
值得关注的是,在本次会议上,英特尔宣布,其目标是到 2022 年将英特尔至强可扩展处理器的人工智能性能提高 30 倍。
据悉,下一代英特尔至强可扩展处理器(代号“Sapphire Rapids”)将利用内置高级矩阵扩展(AMX)引擎,英特尔神经压缩机(INC),以及基于 oneAPI 开放行业标准的 oneDNN 优化,进一步提升计算性能。
除了内置 AI 加速的通用 CPU,英特尔在 GPU 平台建设上同样有不俗表现。Ponte Vecchio 可对 AI、HPC 和高级分析工作负载进行加载。
其新型微架构专为可拓展性而构建,能够将多种内部和外部制程技术与先进的封装技术相结合,从而量身定制产品。
此外,基于业界对于深度学习训练的需求不断增长,深度学习训练模型为提高准确性也变得越来越大,训练这些模型导致计算消耗和相关成本呈指数级飙升,市场对于专用深度学习训练处理器也日益迫切。
在这一背景下,英特尔又推出了 Habana Gaudi 处理器。这个取自画家之名的处理器可以在云端和数据中心提高深度学习训练效率。
据资料显示,Gaudi 加速器提高了 Amazon EC2 训练实例的效率,与目前基于 GPU 的实例相比,性能比最多可提高 40%。