边缘AI浪潮来袭,NPU、GPU、FPGA 架构卡位战打响
生成式AI在2025年迅速向边缘侧渗透,应用如AI手机、AI PC等热度攀升,甚至被定义为边缘生成式AI的应用元年。然而,随着潜力的挖掘,网络延迟、数据安全及隐私问题也日益突出,需要硬软件技术进步以满足新需求。因此,边缘AI处理器的架构竞争悄然开始。
2025年,边缘AI成为行业新宠,据Gartner预测,到2026年,80%的全球企业将使用生成式AI,50%的全球边缘部署将包含AI。边缘AI通过本地化处理数据,无需云服务器,算法直接部署在设备上,具备快速决策、增强数据隐私、减少带宽消耗等优势。
英特尔中国网络与边缘事业部总经理阮伯超表示,AI与边缘计算的融合将更深入,边缘设备智能处理能力将更强,处理数据更实时高效,减少传输延迟和带宽压力。Imagination中国区技术总监艾克指出,边缘AI在安全隐私、实时响应、能源效率等方面有显著优势,是推动智能化变革的关键。
在安全性和隐私保护方面,边缘AI技术通过将数据处理任务从云端转移至本地设备或边缘节点,有效避免了数据在长途传输过程中可能被截获、篡改或泄露的风险。特别是在对数据保密性有极高要求的医疗和金融领域,敏感信息能够在本地完成分析和处理,从而极大提升了数据的安全性。
在实时性要求上,边缘AI无需等待数据在云端之间往返,直接在边缘侧进行数据分析和指令输出,极大地缩短了响应时间。这对于需要即时响应的场景,如工业自动化和智能交通等,尤为重要,能够确保任务的高效执行,满足这些领域对实时性的严格要求。
在能源效率和可持续发展方面,边缘AI减少了数据的长距离传输和云端大规模计算的需求,从而降低了能耗。数据中心的冷却和服务器的运行都是电力消耗的大户,而边缘AI的分布式处理模式减少了对高能耗云端计算资源的依赖,有助于推动绿色计算的发展。
随着边缘AI市场的不断扩展,硬件架构的选择成为了一场关键的竞争领域。神经网络处理器(NPU),作为一种专为人工智能计算设计的芯片,在处理神经网络算法时具有极高的效率。在生成式AI迅速向边缘侧发展的背景下,许多NPU企业凭借其技术优势,积极布局市场,抢占先机。
传统的微控制器单元(MCU)厂商如瑞萨电子、恩智浦半导体和意法半导体等,也在积极推出针对边缘AI市场的产品,并纷纷集成NPU。例如,意法半导体的STM32N6作为STM32系列中首款具备AI加速能力的高性能MCU,集成了主频为1 GHz的NPU,计算性能高达600 GOPS,为计算机视觉和音频应用提供了实时神经网络推理能力。意法半导体中国区微控制器、数字IC与射频产品部微控制器产品市场经理丁晓磊指出,随着MCU计算能力的增强,一些原本需要在系统级芯片(SoC)上运行的应用现在也可以在MCU上实现,从而降低了客户的物料清单(BoM)成本,简化了设计复杂度。
GPU起初专为图形处理设计,其强大的并行计算能力在云端AI领域表现出色。随着边缘市场的发展,移动GPU企业也在进军边缘AI市场。Imagination公司推出了新一代E系列GPU IP,支持2 TOPS到200 TOPS的AI工作负载,并嵌入了新型Burst Processors。产品管理副总裁Kristof Beets称,这一设计优化了GPU指令调度,在处理爆发式数据时优先利用爆发处理器,平均功耗效率提升了35%。
4月14日,Altera从英特尔独立,重新成为全球最大独立FPGA半导体解决方案公司。独立后,Altera将深耕数据中心与边缘AI推理市场。FPGA具有高灵活性、并行处理能力和可扩展性,可在边缘AI领域根据不同需求重新编程硬件逻辑,实现定制化计算加速。移动GPU与NPU各有优势和痛点。NPU作为专为AI计算设计的处理器,在处理神经网络模型时具有高效能、低延迟和高成本效益等优点,适用于智能安防、可穿戴监测等实时性要求高的场景。然而,NPU也存在功能单一、编程难度大的局限性。
NPU专为特定AI应用设计,缺乏灵活性,新应用需CPU处理,延迟高影响性能。相较之下,GPU通用性强,能处理各种AI任务,无需其他单元兜底,利于应对快速更新的AI行业。GPU在软件工具和生态上更具优势,编程框架和开发工具成熟,人才丰富,便于开发优化。存算一体技术崭露头角,解决传统架构的“存储墙”难题,提升计算效率,降低能耗,尤其适用于边缘AI领域,如智能安防摄像头。多家企业已推出存算一体产品,如知存科技的WTM2101和苹芯科技的NPU IP N30,适用于多种场景。