\u200E
  • 开始使用
  • 特性
  • 文档
    • API
    • 使用指南
  • 工具平台
    • 工具
      • AutoDL
      • PaddleHub
      • PARL
      • ERNIE
      • 全部
    • 平台
      • AI Studio
      • EasyDL
      • EasyEdge
  • 资源
    • 模型和数据集
    • 学习资料
    • 应用案例
  • v3.0
  • master
  • v2.6
  • v2.5
  • v2.4
  • v2.3
  • v2.2
  • v2.1
  • v2.0
  • v1.8
  • 中文(简)
  • English(En)
Python API 文档 — Paddle-Inference documentation
Paddle-Inference
latest
  • 使用指南
    • Paddle Inference 简介
      • 如何选择正确的推理引擎
      • 推理流程
      • 架构设计
      • Roadmap
    • 安装指南
      • 系统要求
      • 安装 Python API
      • 安装 C++ API
      • 安装 C API
      • 安装 Go API
      • 下载安装 Linux 推理库
      • 下载安装 Windows 推理库
      • 下载安装 Mac 推理库
      • 源码编译
        • 源码编译基础
        • Linux 下从源码编译
        • Windows 下从源码编译
        • macOS 下从源码编译
    • 快速开始
      • 快速上手Python推理
      • 快速上手C++推理
      • 快速上手C推理
      • 快速上手GO推理
    • 导出模型
      • 飞桨框架模型导出
      • 其他框架模型导出
      • 模型结构可视化
    • x86 CPU部署
      • 在x86 CPU上开发推理应用
      • 在x86 CPU上部署BF16模型
      • X86 CPU 上部署量化模型
    • NVIDIA-GPU部署
      • GPU 原生推理
      • Paddle Inference GPU 多流推理
      • 混合精度推理
      • GPU TensorRT 加速推理(NV-GPU/Jetson)
      • GPU TensorRT 低精度或量化推理
    • 其他硬件部署
      • 飞腾/鲲鹏 CPU 安装说明
      • 申威 CPU 安装说明
      • 兆芯 CPU 安装说明
      • 龙芯 CPU 安装说明
      • 昆仑 XPU 安装说明
      • AMD GPU / 海光 DCU 安装说明
      • 昇腾 NPU 安装说明
      • Graphcore IPU 安装说明
    • Paddle Inference 部署示例
    • 调试与优化
      • 精度核验与问题追查
      • 性能分析
      • 多线程并发推理
    • Benchmark
      • CPU 性能数据
      • GPU 性能数据
  • API
    • Python API 文档
      • create_predictor 方法
      • get_version 方法
      • Config 类
        • 1. Config 类定义
        • 2. 设置预测模型
        • 3. 使用 CPU 进行预测
        • 4. 使用 GPU 进行预测
        • 5. 使用 XPU 进行预测
        • 6. 使用 IPU 进行预测
        • 7. 使用 ONNXRuntime 进行预测
        • 8. 设置模型优化方法
        • 9. 启用内存优化
        • 10. 设置缓存路径
        • 11. Profile 设置
        • 12. Log 设置
        • 13. 查看config配置
      • Predictor 类
      • PredictorPool 类
      • Tensor 类
      • 枚举类型
    • C++ API 文档
      • CreatePredictor 方法
      • GetVersion 方法
      • Config 类
        • 1. Config 构造函数
        • 2. 设置预测模型
        • 3. 使用 CPU 进行预测
        • 4. 使用 GPU 进行预测
        • 5. 使用 XPU 进行预测
        • 6. 使用 ONNXRuntime 进行预测
        • 7. 使用 IPU 进行预测
        • 8. 设置模型优化方法
        • 9. 启用内存优化
        • 10. 设置缓存路径
        • 11. FC Padding
        • 12. Profile 设置
        • 13. Log 设置
        • 14. 查看config配置
      • PaddlePassBuilder 类
      • Predictor 类
      • PredictorPool 类
      • Tensor 类
      • 枚举类型
    • C API 文档
      • 枚举类型
      • 动态数组结构体
      • Config 方法
        • 1. 创建 Config
        • 2. 设置预测模型
        • 3. 使用 CPU 进行预测
        • 4. 使用 GPU 进行预测
        • 5. 使用 XPU 进行预测
        • 6. 使用 ONNXRuntime 进行推理
        • 7. 设置模型优化方法
        • 8. 启用内存优化
        • 9. 设置缓存路径
        • 10. FC Padding
        • 11. Profile 设置
        • 12. Log 设置
        • 13. 查看config配置
      • Predictor 方法
      • Tensor 方法
    • GO API 文档
      • AnalysisConfig 方法
        • 1. 创建 Config
        • 2. 设置预测模型
        • 3. 使用 CPU 进行预测
        • 4. 使用 GPU 进行预测
        • 5. 使用 ONNXRuntime 进行推理
        • 6. 设置模型优化方法
        • 7. 启用内存优化
        • 8. Profile 设置
        • 9. Log 设置
        • 10. 查看config配置
      • Predictor 方法
      • Tensor 方法
      • 枚举类型
  • 常见问题与解答
    • 环境与编译问题
    • 运行报错
    • 精度与性能
  • Python API 文档
Paddle-Inference
  • »
  • API »
  • Python API 文档
  • View page source

Python API 文档¶

  • create_predictor 方法
  • get_version 方法
  • Config 类
    • 1. Config 类定义
    • 2. 设置预测模型
      • 2.1. 从文件中加载预测模型
      • 2.2. 从内存中加载预测模型
    • 3. 使用 CPU 进行预测
      • 3.1. CPU 设置
      • 3.2. MKLDNN 设置
    • 4. 使用 GPU 进行预测
      • 4.1. GPU 设置
      • 4.2. TensorRT 设置
    • 5. 使用 XPU 进行预测
    • 6. 使用 IPU 进行预测
    • 7. 使用 ONNXRuntime 进行预测
    • 8. 设置模型优化方法
      • 8.1. IR 优化
      • 8.2. Lite 子图
    • 9. 启用内存优化
    • 10. 设置缓存路径
    • 11. Profile 设置
    • 12. Log 设置
    • 13. 查看config配置
  • Predictor 类
  • PredictorPool 类
  • Tensor 类
  • 枚举类型
    • DataType
    • PrecisionType
Next Previous

© Copyright 2020, Paddle-Inference Developer.

Built with Sphinx using a theme provided by Read the Docs.