芯原可扩展的高性能GPGPU-AI计算IP赋能汽车与边缘服务器AI解决方案

提供高算力密度的AI加速能力、多芯片扩展支持及3D堆叠内存集成能力

2025年6月9日,中国上海--芯原股份(芯原,股票代码:688521.SH)今日宣布其高性能、可扩展的GPGPU-AI计算IP的最新进展,这些IP现已为新一代汽车电子和边缘服务器应用提供强劲赋能。通过将可编程并行计算能力与人工智能(AI)加速器相融合,这些IP在热和功耗受限的环境下,能够高效支持大语言模型(LLM)推理、多模态感知以及实时决策等复杂的AI工作负载。

芯原的GPGPU-AI计算IP基于高性能通用图形处理器(GPGPU)架构,并集成专用AI加速器,可为AI应用提供卓越的计算能力。其可编程AI加速器与稀疏感知计算引擎通过先进的调度技术,可加速Transformer等矩阵密集型模型的运行。此外,这些IP支持用于混合精度计算的多种数据格式,包括INT4/8、FP4/8、BF16、FP16/32/64和TF32,并支持多种高带宽接口,包括3D堆叠内存、LPDDR5X、HBM、PCIe Gen5/Gen6和CXL。该IP还支持多芯片、多卡扩展部署,具备系统级可扩展性,满足大规模AI应用的部署需求。

芯原的GPGPU-AI计算IP原生支持PyTorch、TensorFlow、ONNX和TVM等主流AI框架,覆盖训练与推理流程。此外,它还支持与主流的GPGPU编程语言兼容的通用计算语言(GPCL),以及主流的编译器。这些能力高度契合当前大语言模型在算力和可扩展性方面的需求,包括DeepSeek等代表性模型。

“边缘服务器在推理与增量训练等场景下对AI算力的需求正呈指数级增长。这一趋势不仅要求极高的计算效率,也对架构的可编程性提出了更高要求。芯原的GPGPU-AI计算处理器在架构设计上实现了GPGPU通用计算与AI加速器的深度融合,可在极细粒度层面实现高效协同,相关优势已在多个高性能AI计算系统中得到验证。”芯原首席战略官、执行副总裁、IP事业部总经理戴伟进表示,“近期DeepSeek的技术突破进一步凸显出提升AI计算效率以应对日益复杂工作负载的重要性。我们最新一代GPGPU-AI计算IP已全面优化,可高效支持专家混合(MoE)模型,并提升了核间通信效率。同时,通过与多家领先AI计算客户的深度合作,我们已对处理器架构进行了优化,以充分利用3D堆叠存储技术所提供的充足带宽。芯原将持续携手生态合作伙伴,加速推动这些先进技术在实际应用中的规模化落地。”

关于芯原

芯原微电子(上海)股份有限公司(芯原股份,688521.SH)是一家依托自主半导体IP,为客户提供平台化、全方位、一站式芯片定制服务和半导体IP授权服务的企业。

公司拥有自主可控的图形处理器IP(GPU IP)、神经网络处理器IP(NPU IP)、视频处理器IP(VPU IP)、数字信号处理器IP(DSP IP)、图像信号处理器IP(ISP IP)和显示处理器IP(Display Processing IP)这六类处理器IP,以及1,600多个数模混合IP和射频IP。

基于自有的IP,公司已拥有丰富的面向人工智能(AI)应用的软硬件芯片定制平台解决方案,涵盖如智能手表、AR/VR眼镜等始终在线(Always-on)的轻量化空间计算设备,AI PC、AI手机、智慧汽车、机器人等高效率端侧计算设备,以及数据中心/服务器等高性能云侧计算设备。

为顺应大算力需求所推动的SoC(系统级芯片)向SiP(系统级封装)发展的趋势,芯原正在以“IP芯片化(IP as a Chiplet)”、“芯片平台化(Chiplet as a Platform)”和“平台生态化(Platform as an Ecosystem)”理念为行动指导方针,从接口IP、Chiplet芯片架构、先进封装技术、面向AIGC和智慧出行的解决方案等方面入手,持续推进公司Chiplet技术、项目的研发和产业化。

基于公司独有的芯片设计平台即服务(Silicon Platform as a Service, SiPaaS)经营模式,目前公司主营业务的应用领域广泛包括消费电子、汽车电子、计算机及周边、工业、数据处理、物联网等,主要客户包括芯片设计公司、IDM、系统厂商、大型互联网公司、云服务提供商等。

芯原成立于2001年,总部位于中国上海,在全球设有8个设计研发中心,以及11个销售和客户支持办事处,目前员工已超过2,000人。

×
Semiconductor IP