\u200E
  • v3.0
  • master
  • v2.6
  • v2.5
  • v2.4
  • v2.3
  • v2.2
  • v2.1
  • v2.0
  • v1.8
  • 中文(简)
  • English(En)
Config 类 — Paddle-Inference documentation
Paddle-Inference
latest

产品介绍

  • 飞桨推理产品简介
  • Paddle Inference 简介

快速开始

  • 预测流程
  • 预测示例 (C++)
  • 预测示例 (Python)
  • 预测示例 (C)
  • 预测示例 (GO)

使用方法

  • 源码编译
  • 飞腾/鲲鹏下从源码编译
  • 申威下从源码编译
  • 兆芯下从源码编译
  • 龙芯下从源码编译
  • 下载安装Linux预测库
  • 下载安装Windows预测库
  • 下载安装Mac预测库

性能调优

  • 使用Paddle-TensorRT库预测
  • X86 CPU 上部署量化模型
  • X86 CPU 上部署BF16预测

工具

  • 模型可视化
  • 模型转换工具 X2Paddle

硬件部署示例

  • X86 Linux上预测部署示例
  • X86 Windows上预测部署示例
  • 使用昆仑预测
  • Linux上GPU预测部署示例
  • NV Jetson上预测部署示例
  • Windows上GPU预测部署示例

Benchmark

  • 性能数据

API 文档

  • C++ API 文档
  • Python API 文档
    • create_predictor 方法
    • get_version 方法
    • Config 类
      • 1. Config 类定义
      • 2. 设置预测模型
      • 3. 使用 CPU 进行预测
      • 4. 使用 GPU 进行预测
      • 5. 使用 XPU 进行预测
      • 6. 使用 ONNXRuntime 进行预测
      • 7. 设置模型优化方法
      • 8. 启用内存优化
      • 9. 设置缓存路径
      • 10. Profile 设置
      • 11. Log 设置
      • 12. 查看config配置
    • Predictor 类
    • PredictorPool 类
    • Tensor 类
    • 枚举类型
  • C API 文档
  • GO API 文档

FAQ

  • Paddle Inference FAQ
  • 训练推理示例说明
Paddle-Inference
  • »
  • Python API 文档 »
  • Config 类
  • View page source

Config 类¶

  • 1. Config 类定义
  • 2. 设置预测模型
    • 2.1. 从文件中加载预测模型 - 非Combined模型
    • 2.2. 从文件中加载预测模型 - Combined 模型
    • 2.3. 从内存中加载预测模型
  • 3. 使用 CPU 进行预测
    • 3.1. CPU 设置
    • 3.2. MKLDNN 设置
  • 4. 使用 GPU 进行预测
    • 4.1. GPU 设置
    • 4.2. TensorRT 设置
  • 5. 使用 XPU 进行预测
  • 6. 使用 ONNXRuntime 进行预测
  • 7. 设置模型优化方法
    • 7.1. IR 优化
    • 7.2. Lite 子图
  • 8. 启用内存优化
  • 9. 设置缓存路径
  • 10. Profile 设置
  • 11. Log 设置
  • 12. 查看config配置
Next Previous

© Copyright 2020, Paddle-Inference Developer.

Built with Sphinx using a theme provided by Read the Docs.