飞桨产品硬件支持表

飞桨各个产品支持的硬件信息如下:

PaddlePaddle

分类 架构 公司 型号 安装 源码编译 完全支持训练 支持部分模型
服务端 CPU x86 Intel 常见 CPU 型号如 Xeon、Core 全系列 安装 源码编译 ✔️
服务端 GPU NVIDIA 常见 GPU 型号如 V100、T4 等 安装 源码编译 ✔️
AI 加速芯片 达芬奇 华为 昇腾 910 安装 源码编译 ✔️
AI 加速芯片 海光 海光 DCU 安装 源码编译 ✔️ 支持模型
AI 加速芯片 XPU 百度 昆仑 K200、R200 等 安装 源码编译 支持模型
AI 加速芯片 IPU Graphcore GC200 源码编译
AI 加速芯片 MLU 寒武纪 MLU370 系列 安装 源码编译 ✔️

Paddle Inference

分类 架构 公司 型号 预编译库 源码编译 完全支持推理 支持部分模型
服务端 CPU x86 Intel 常见 CPU 型号如 Xeon、Core 全系列等 预编译库 源码编译 ✔️
服务端 GPU NVIDIA 常见 GPU 型号如 V100、T4 等 预编译库 源码编译 ✔️
移动端 GPU NVIDIA Jetson 系列 预编译库 源码编译 ✔️
AI 加速芯片 达芬奇 华为 昇腾 910 即将提供
AI 加速芯片 MLU 寒武纪 MLU370 系列 预编译库 源码编译 ✔️
AI 加速芯片 海光 海光 DCU 预编译库 源码编译 ✔️ 支持模型
AI 加速芯片 XPU 百度 昆仑 K200、R200 等 预编译库 源码编译 支持模型
服务端 CPU ARM 飞腾 FT-2000+/64、S2500 源码编译
服务端 CPU ARM 华为 鲲鹏 920 2426SK 源码编译
服务端 CPU MIPS 龙芯 龙芯 3A4000、3A5000、3C5000L 源码编译
服务端 CPU x86 兆芯 全系列 CPU 源码编译

Paddle Lite

分类 架构 公司 型号 预编译库 源码编译 完全支持推理 支持部分模型
移动端 CPU ARM ARM Cortex-A 系列 预编译库 源码编译 支持模型
移动端 GPU ARM Mali 系列 源码编译 支持模型
移动端 GPU 高通 Adreno 系列 源码编译 支持模型
AI 加速芯片 华为 Kirin 810/990/9000 源码编译 支持模型
AI 加速芯片 华为 昇腾 310 即将提供
AI 加速芯片 RockChip RK1808 源码编译 支持模型
AI 加速芯片 MTK NeuroPilot APU 源码编译 支持模型
AI 加速芯片 Imagination PowerVR 2NX 源码编译 支持模型
AI 加速芯片 百度 昆仑 K200、R200 等 源码编译 支持模型
AI 加速芯片 寒武纪 思元 270 即将提供
AI 加速芯片 比特大陆 算丰 BM16 系列芯片 源码编译 支持模型
FPGA 百度 百度 Edgeboard 开发板 源码编译 支持模型

注意: 如果你想了解更多芯片支持的信息,请联系我们,邮箱为 Paddle-better@baidu.com。