{ "per_channel": false, "reduce_range": false, "per_model_config": { "decoder_model": { "op_types": [ "Range", "Gemm", "Relu", "Slice", "Squeeze", "Softmax", "Expand", "Unsqueeze", "Shape", "Mul", "CumSum", "Pow", "ConstantOfShape", "Sqrt", "Div", "Less", "ReduceMean", "Gather", "Add", "MatMul", "Equal", "Max", "Identity", "Constant", "Reshape", "Cast", "Concat", "Where", "Transpose", "Sub" ], "weight_type": "QInt8" }, "decoder_with_past_model": { "op_types": [ "Gemm", "Relu", "Slice", "Squeeze", "Softmax", "Expand", "Unsqueeze", "Shape", "Mul", "CumSum", "Pow", "ConstantOfShape", "Sqrt", "Div", "ReduceMean", "Gather", "Add", "MatMul", "Equal", "Max", "Identity", "Constant", "Reshape", "Cast", "Concat", "Where", "Transpose", "Sub" ], "weight_type": "QInt8" }, "decoder_model_merged": { "op_types": [ "Range", "Gemm", "Relu", "Slice", "Squeeze", "Softmax", "Expand", "Shape", "Unsqueeze", "Mul", "CumSum", "Pow", "ConstantOfShape", "Sqrt", "If", "Div", "Less", "ReduceMean", "Gather", "Add", "MatMul", "Equal", "Max", "Constant", "Identity", "Reshape", "Cast", "Concat", "Where", "Transpose", "Sub" ], "weight_type": "QInt8" } } }