\u200E
  • 开始使用
  • 特性
  • 文档
    • API
    • 使用指南
  • 工具平台
    • 工具
      • AutoDL
      • PaddleHub
      • PARL
      • ERNIE
      • 全部
    • 平台
      • AI Studio
      • EasyDL
      • EasyEdge
  • 资源
    • 模型和数据集
    • 学习资料
    • 应用案例
  • v3.0
  • master
  • v2.6
  • v2.5
  • v2.4
  • v2.3
  • v2.2
  • v2.1
  • v2.0
  • v1.8
  • 中文(简)
  • English(En)
Python API 文档 — Paddle-Inference documentation
Paddle-Inference
latest

产品介绍

  • 飞桨推理产品简介
  • Paddle Inference 简介

快速开始

  • 预测流程
  • 预测示例 (C++)
  • 预测示例 (Python)
  • 预测示例 (C)
  • 预测示例 (GO)

使用方法

  • 源码编译
  • 飞腾/鲲鹏下从源码编译
  • 申威下从源码编译
  • 兆芯下从源码编译
  • 龙芯下从源码编译
  • 下载安装Linux预测库
  • 下载安装Windows预测库
  • 下载安装Mac预测库

性能调优

  • 使用Paddle-TensorRT库预测
  • X86 CPU 上部署量化模型
  • X86 CPU 上部署BF16预测

工具

  • 模型可视化
  • 模型转换工具 X2Paddle

硬件部署示例

  • X86 Linux上预测部署示例
  • X86 Windows上预测部署示例
  • 使用昆仑预测
  • Linux上GPU预测部署示例
  • NV Jetson上预测部署示例
  • Windows上GPU预测部署示例

Benchmark

  • 性能数据

API 文档

  • C++ API 文档
  • Python API 文档
    • create_predictor 方法
    • get_version 方法
    • Config 类
    • Predictor 类
    • PredictorPool 类
    • Tensor 类
    • 枚举类型
  • C API 文档
  • GO API 文档

FAQ

  • Paddle Inference FAQ
  • 训练推理示例说明
Paddle-Inference
  • »
  • Python API 文档
  • View page source

Python API 文档¶

  • create_predictor 方法
  • get_version 方法
  • Config 类
    • 1. Config 类定义
    • 2. 设置预测模型
      • 2.1. 从文件中加载预测模型 - 非Combined模型
      • 2.2. 从文件中加载预测模型 - Combined 模型
      • 2.3. 从内存中加载预测模型
    • 3. 使用 CPU 进行预测
      • 3.1. CPU 设置
      • 3.2. MKLDNN 设置
    • 4. 使用 GPU 进行预测
      • 4.1. GPU 设置
      • 4.2. TensorRT 设置
    • 5. 使用 XPU 进行预测
    • 6. 使用 ONNXRuntime 进行预测
    • 7. 设置模型优化方法
      • 7.1. IR 优化
      • 7.2. Lite 子图
    • 8. 启用内存优化
    • 9. 设置缓存路径
    • 10. Profile 设置
    • 11. Log 设置
    • 12. 查看config配置
  • Predictor 类
  • PredictorPool 类
  • Tensor 类
  • 枚举类型
    • DataType
    • PrecisionType
Next Previous

© Copyright 2020, Paddle-Inference Developer.

Built with Sphinx using a theme provided by Read the Docs.