\u200E
  • 开始使用
  • 特性
  • 文档
    • API
    • 使用指南
  • 工具平台
    • 工具
      • AutoDL
      • PaddleHub
      • PARL
      • ERNIE
      • 全部
    • 平台
      • AI Studio
      • EasyDL
      • EasyEdge
  • 资源
    • 模型和数据集
    • 学习资料
    • 应用案例
  • v3.0
  • master
  • v2.6
  • v2.5
  • v2.4
  • v2.3
  • v2.2
  • v2.1
  • v2.0
  • v1.8
  • 中文(简)
  • English(En)
GO API 文档 — Paddle-Inference documentation
Paddle-Inference
latest

产品介绍

  • 飞桨推理产品简介
  • Paddle Inference 简介

快速开始

  • 预测流程
  • 预测示例 (C++)
  • 预测示例 (Python)
  • 预测示例 (C)
  • 预测示例 (GO)

使用方法

  • 源码编译
  • 飞腾/鲲鹏下从源码编译
  • 申威下从源码编译
  • 兆芯下从源码编译
  • 龙芯下从源码编译
  • 下载安装Linux预测库
  • 下载安装Windows预测库
  • 下载安装Mac预测库

性能调优

  • 使用Paddle-TensorRT库预测
  • X86 CPU 上部署量化模型
  • X86 CPU 上部署BF16预测

工具

  • 模型可视化
  • 模型转换工具 X2Paddle

硬件部署示例

  • X86 Linux上预测部署示例
  • X86 Windows上预测部署示例
  • 使用昆仑预测
  • Linux上GPU预测部署示例
  • NV Jetson上预测部署示例
  • Windows上GPU预测部署示例

Benchmark

  • 性能数据

API 文档

  • C++ API 文档
  • Python API 文档
  • C API 文档
  • GO API 文档
    • AnalysisConfig 方法
    • Predictor 方法
    • Tensor 方法
    • 枚举类型

FAQ

  • Paddle Inference FAQ
  • 训练推理示例说明
Paddle-Inference
  • »
  • GO API 文档
  • View page source

GO API 文档¶

  • AnalysisConfig 方法
    • 1. 创建 Config
    • 2. 设置预测模型
      • 2.1. 从文件中加载预测模型 - 非Combined模型
      • 2.2. 从文件中加载预测模型 - Combined 模型
    • 3. 使用 CPU 进行预测
      • 3.1. CPU 设置
      • 3.2. MKLDNN 设置
    • 4. 使用 GPU 进行预测
      • 4.1. GPU 设置
      • 4.2. TensorRT 设置
    • 5. 使用 ONNXRuntime 进行预测
    • 6. 设置模型优化方法
    • 7. 启用内存优化
    • 8. Profile 设置
    • 9. Log 设置
    • 10. 查看config配置
  • Predictor 方法
    • 创建 Predictor
    • 输入输出与执行预测
  • Tensor 方法
  • 枚举类型
    • DataType
    • Precision
Next Previous

© Copyright 2020, Paddle-Inference Developer.

Built with Sphinx using a theme provided by Read the Docs.