Paddle-Inference
qs2
产品介绍
飞桨推理产品简介
Paddle Inference 简介
快速开始
预测流程
预测示例 (C++)
预测示例 (Python)
预测示例 (C)
预测示例 (GO)
使用方法
源码编译
飞腾/鲲鹏下从源码编译
申威下从源码编译
兆芯下从源码编译
龙芯下从源码编译
下载安装Linux预测库
下载安装Windows预测库
下载安装Mac预测库
性能调优
X86 CPU 上部署量化模型
X86 CPU 上部署BF16预测
工具
模型可视化
模型转换工具 X2Paddle
硬件部署示例
X86 Linux上预测部署示例
X86 Windows上预测部署示例
使用昆仑预测
Linux上GPU预测部署示例
NV Jetson上预测部署示例
Windows上GPU预测部署示例
Benchmark
性能数据
API 文档
C++ API 文档
Python API 文档
C API 文档
GO API 文档
AnalysisConfig 方法
Predictor 方法
Tensor 方法
枚举类型
FAQ
Paddle Inference FAQ
训练推理示例说明
Paddle-Inference
Docs
»
GO API 文档
Edit on GitHub
GO API 文档
¶
AnalysisConfig 方法
1. 创建 Config
2. 设置预测模型
2.1. 从文件中加载预测模型 - 非Combined模型
2.2. 从文件中加载预测模型 - Combined 模型
3. 使用 CPU 进行预测
3.1. CPU 设置
3.2. MKLDNN 设置
4. 使用 GPU 进行预测
4.1. GPU 设置
4.2. TensorRT 设置
5. 使用 ONNXRuntime 进行预测
6. 设置模型优化方法
7. 启用内存优化
8. Profile 设置
9. Log 设置
10. 查看config配置
Predictor 方法
创建 Predictor
输入输出与执行预测
Tensor 方法
枚举类型
DataType
Precision
Read the Docs
v: qs2
Versions
master
latest
release-v2.3
release-v2.2
release-v2.1
release-v2.0
release-v1.8
qs2
java_api
Downloads
On Read the Docs
Project Home
Builds
Free document hosting provided by
Read the Docs
.