我使用torch.quantization.quantize_dynamic
来缩小模型大小,但它降低了我的预测精度得分。
我正在使用该模型文件在瓶内,并做一些实时预测,因为我面临的问题,因为庞大的问题,同时预测。所以,谁能帮我减少伯特模型的尺寸,使用火把,并指导我做谁做实时预测。
发布于 2022-06-30 18:46:57
这里是torch.quantization.quantize_dynamic
的文档,dtype
设置为torch.qint8
。
因此,如果您不希望您的准确性大幅度降低,请使用以下语法
torch.quantization.quantize_dynamic(model, qconfig_spec=None, dtype=torch.float16)
https://stackoverflow.com/questions/72818221
复制相似问题