{ "per_channel": false, "reduce_range": false, "per_model_config": { "decoder_model": { "op_types": [ "Unsqueeze", "Constant", "Mul", "Equal", "Slice", "Shape", "Gather", "Concat", "Reshape", "ReduceMean", "Less", "Max", "Softmax", "MatMul", "Cast", "Div", "Range", "CumSum", "Pow", "Transpose", "Sub", "Add", "ConstantOfShape", "Expand", "Gemm", "Squeeze", "Relu", "Sqrt", "Where", "Identity" ], "weight_type": "QInt8" }, "decoder_with_past_model": { "op_types": [ "Unsqueeze", "Constant", "Mul", "Equal", "Slice", "Shape", "Gather", "Concat", "Reshape", "ReduceMean", "Max", "Softmax", "MatMul", "Where", "Div", "CumSum", "Pow", "Transpose", "Sub", "Add", "ConstantOfShape", "Expand", "Gemm", "Squeeze", "Relu", "Sqrt", "Cast", "Identity" ], "weight_type": "QInt8" }, "decoder_model_merged": { "op_types": [ "Unsqueeze", "Constant", "Mul", "Equal", "Slice", "Shape", "Gather", "Concat", "Reshape", "ReduceMean", "Less", "If", "Max", "Softmax", "MatMul", "Cast", "Div", "Range", "CumSum", "Pow", "Transpose", "Sub", "Add", "ConstantOfShape", "Expand", "Gemm", "Squeeze", "Relu", "Sqrt", "Where", "Identity" ], "weight_type": "QInt8" } } }