Opt¶
class Opt;
Opt模型离线优化接口,Paddle原生模型需经opt优化图结构后才能在Paddle Lite上运行。
示例:
假设待转化模型问当前文件夹下的mobilenet_v1,可以使用以下脚本转换
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定输入模型地址
opt.set_model_dir("./mobilenet_v1")
# 3. 指定转化类型: arm、x86、opencl、npu
opt.set_valid_places("arm")
# 4. 指定模型转化类型: naive_buffer、protobuf
opt.set_model_type("naive_buffer")
# 4. 输出模型地址
opt.set_optimize_out("mobilenetv1_opt")
# 5. 执行模型优化
opt.run()
set_model_type(type)¶
设置模型的输出类型,当前支持naive_buffer和protobuf两种格式,移动端预测需要转化为naive_buffer。
naive_buffer的优化后模型为以.nb名称结尾的单个文件。protobuf的优化后模型为文件夹下的model和params两个文件。将model重命名为__model__用Netron打开,即可查看优化后的模型结构。
参数:
type(str)- 模型格式(naive_buffer/protobuf)
set_valid_places(valid_places)¶
设置可用的places列表。
参数:
valid_places(str)- 可用place列表,不同place用,隔开
示例:
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定转化类型: arm、x86、opencl、npu
opt.set_valid_places("arm,opencl")
# opt.set_valid_places("arm,npu")
set_quant_type(quant_type)¶
设置动态离线量化的方式,支持两种量化方式(QUANT_INT16和QUANT_INT8),即分别量化为int16和int8。量化为int8对模型精度有一点影响,模型体积大概减小4倍。量化为int16对模型精度基本没有影响,模型体积大概减小2倍。
参数:
quant_type(str)-支持设置为QUANT_INT16和QUANT_INT8
enable_fp16()¶
启用Float16 训练后量化。将模型中权重数据量化为Float16对模型精度有一点影响,运行耗时和内存占用几乎降低一半。
set_sparse_threshold(float)¶
设置稀疏化阈值。例如,设置为0.6时,意思是对于某层参数,如果该参数的0元素比例小于0.6的话,则不走sparse pass。
参数:
sparse_threshold(float)-支持参数区间为[0,1]
run()¶
执行模型优化,用以上接口设置完 模型路径、model_type、optimize_out和valid_places后,执行run()接口会根据以上设置转化模型,转化后模型保存在当前路径下。
run_optimize(model_dir, model_file, param_file, type, valid_places, optimized_model_name)¶
执行模型优化,无需设置以上接口,直接指定 模型路径、model_type、optimize_out和valid_places并执行模型转化。
参数:
model_dir(str)- 模型文件夹路径model_file(str)- 模型文件路径param_file(str)- 模型文件路径type(str)- 模型格式(naive_buffer/protobuf)valid_places(str)- 可用place列表,不同place用,隔开optimized_model_name(str)
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 执行模型优化
opt.run_optimize("./mobilenet_v1","","","arm","mobilenetv1_opt");