diff --git "a/SortformerNvidiaLow.mlmodelc/model1/model.mil" "b/SortformerNvidiaLow.mlmodelc/model1/model.mil" --- "a/SortformerNvidiaLow.mlmodelc/model1/model.mil" +++ "b/SortformerNvidiaLow.mlmodelc/model1/model.mil" @@ -1,3594 +1,3597 @@ program(1.0) [buildInfo = dict, tensor>({{"coremlc-component-MIL", "3510.2.1"}, {"coremlc-version", "3500.32.1"}, {"coremltools-component-torch", "2.9.1"}, {"coremltools-source-dialect", "TorchScript"}, {"coremltools-version", "9.0"}})] { - func main(tensor chunk_pre_encoder_embs, tensor chunk_pre_encoder_lengths, tensor pre_encoder_embs, tensor pre_encoder_lengths) { + func main(tensor chunk_pre_encoder_embs, tensor chunk_pre_encoder_lengths, tensor pre_encoder_embs, tensor pre_encoder_lengths) { tensor var_30 = const()[name = tensor("op_30"), val = tensor(-1)]; tensor pre_encoder_embs_to_fp16_dtype_0 = const()[name = tensor("pre_encoder_embs_to_fp16_dtype_0"), val = tensor("fp16")]; tensor var_77_to_fp16 = const()[name = tensor("op_77_to_fp16"), val = tensor(0x1.6ap+4)]; - tensor pre_encoder_embs_to_fp16 = cast(dtype = pre_encoder_embs_to_fp16_dtype_0, x = pre_encoder_embs)[name = tensor("cast_304")]; - tensor x_1_cast_fp16 = mul(x = pre_encoder_embs_to_fp16, y = var_77_to_fp16)[name = tensor("x_1_cast_fp16")]; - tensor expand_dims_0 = const()[name = tensor("expand_dims_0"), val = tensor([[0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80, 81, 82, 83, 84, 85, 86, 87, 88, 89, 90, 91, 92, 93, 94, 95, 96, 97, 98, 99, 100, 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133, 134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146, 147, 148, 149, 150, 151, 152, 153, 154, 155, 156, 157, 158, 159, 160, 161, 162, 163, 164, 165, 166, 167, 168, 169, 170, 171, 172, 173, 174, 175, 176, 177, 178, 179, 180, 181, 182, 183, 184, 185, 186, 187, 188, 189, 190, 191, 192, 193, 194, 195, 196, 197, 198, 199, 200, 201, 202, 203, 204, 205, 206, 207, 208, 209, 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223, 224, 225, 226, 227, 228, 229, 230, 231, 232, 233, 234, 235, 236, 237, 238, 239, 240, 241]])]; + tensor pre_encoder_embs_to_fp16 = cast(dtype = pre_encoder_embs_to_fp16_dtype_0, x = pre_encoder_embs)[name = tensor("cast_305")]; + tensor x_1_cast_fp16 = mul(x = pre_encoder_embs_to_fp16, y = var_77_to_fp16)[name = tensor("x_1_cast_fp16")]; + tensor expand_dims_0 = const()[name = tensor("expand_dims_0"), val = tensor([[0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80, 81, 82, 83, 84, 85, 86, 87, 88, 89, 90, 91, 92, 93, 94, 95, 96, 97, 98, 99, 100, 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133, 134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146, 147, 148, 149, 150, 151, 152, 153, 154, 155, 156, 157, 158, 159, 160, 161, 162, 163, 164, 165, 166, 167, 168, 169, 170, 171, 172, 173, 174, 175, 176, 177, 178, 179, 180, 181, 182, 183, 184, 185, 186, 187, 188, 189, 190, 191, 192, 193, 194, 195, 196, 197, 198, 199, 200, 201, 202, 203, 204, 205, 206, 207, 208, 209, 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223, 224, 225, 226, 227, 228, 229, 230, 231, 232, 233, 234, 235, 236, 237, 238, 239, 240, 241, 242, 243, 244, 245, 246, 247, 248, 249, 250, 251, 252, 253, 254, 255, 256, 257, 258, 259, 260, 261, 262, 263, 264, 265, 266, 267, 268, 269, 270, 271, 272, 273, 274, 275, 276, 277, 278, 279, 280, 281, 282, 283, 284, 285, 286, 287, 288, 289, 290, 291, 292, 293, 294, 295, 296, 297, 298, 299, 300, 301, 302, 303, 304, 305, 306, 307, 308, 309, 310, 311, 312, 313, 314, 315, 316, 317, 318, 319, 320, 321, 322, 323, 324, 325, 326, 327, 328, 329, 330, 331, 332, 333, 334, 335, 336, 337, 338, 339, 340, 341, 342, 343, 344, 345, 346, 347, 348, 349, 350, 351, 352, 353, 354, 355, 356, 357, 358, 359, 360, 361, 362, 363, 364, 365, 366, 367, 368, 369, 370, 371, 372, 373, 374, 375, 376, 377, 378, 379, 380, 381, 382, 383, 384, 385, 386, 387, 388, 389]])]; tensor var_106_axes_0 = const()[name = tensor("op_106_axes_0"), val = tensor([-1])]; tensor var_106 = expand_dims(axes = var_106_axes_0, x = pre_encoder_lengths)[name = tensor("op_106")]; - tensor pad_mask_1 = less(x = expand_dims_0, y = var_106)[name = tensor("pad_mask_1")]; + tensor pad_mask_1 = less(x = expand_dims_0, y = var_106)[name = tensor("pad_mask_1")]; tensor var_108_axes_0 = const()[name = tensor("op_108_axes_0"), val = tensor([1])]; - tensor var_108 = expand_dims(axes = var_108_axes_0, x = pad_mask_1)[name = tensor("op_108")]; - tensor var_109 = const()[name = tensor("op_109"), val = tensor([1, 242, 1])]; - tensor pad_mask_for_att_mask_1 = tile(reps = var_109, x = var_108)[name = tensor("pad_mask_for_att_mask_1")]; + tensor var_108 = expand_dims(axes = var_108_axes_0, x = pad_mask_1)[name = tensor("op_108")]; + tensor var_109 = const()[name = tensor("op_109"), val = tensor([1, 390, 1])]; + tensor pad_mask_for_att_mask_1 = tile(reps = var_109, x = var_108)[name = tensor("pad_mask_for_att_mask_1")]; tensor var_111_perm_0 = const()[name = tensor("op_111_perm_0"), val = tensor([0, 2, 1])]; - tensor var_111 = transpose(perm = var_111_perm_0, x = pad_mask_for_att_mask_1)[name = tensor("transpose_312")]; - tensor pad_mask_for_att_mask = logical_and(x = pad_mask_for_att_mask_1, y = var_111)[name = tensor("pad_mask_for_att_mask")]; - tensor const_5 = const()[name = tensor("const_5"), val = tensor([[[true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true]]])]; - tensor att_mask = logical_and(x = pad_mask_for_att_mask, y = const_5)[name = tensor("att_mask")]; - tensor mask_1 = logical_not(x = att_mask)[name = tensor("mask_1")]; - tensor pad_mask = logical_not(x = pad_mask_1)[name = tensor("pad_mask")]; + tensor var_111 = transpose(perm = var_111_perm_0, x = pad_mask_for_att_mask_1)[name = tensor("transpose_312")]; + tensor pad_mask_for_att_mask = logical_and(x = pad_mask_for_att_mask_1, y = var_111)[name = tensor("pad_mask_for_att_mask")]; + tensor const_5 = const()[name = tensor("const_5"), val = tensor([[[true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true], [true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true, true]]])]; + tensor att_mask = logical_and(x = pad_mask_for_att_mask, y = const_5)[name = tensor("att_mask")]; + tensor mask_1 = logical_not(x = att_mask)[name = tensor("mask_1")]; + tensor pad_mask = logical_not(x = pad_mask_1)[name = tensor("pad_mask")]; tensor input_3_axes_0 = const()[name = tensor("input_3_axes_0"), val = tensor([-1])]; tensor model_encoder_layers_0_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(64)))]; tensor model_encoder_layers_0_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(1152)))]; tensor var_19_to_fp16 = const()[name = tensor("op_19_to_fp16"), val = tensor(0x1.5p-17)]; - tensor input_3_cast_fp16 = layer_norm(axes = input_3_axes_0, beta = model_encoder_layers_0_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_feed_forward1_weight_to_fp16, x = x_1_cast_fp16)[name = tensor("input_3_cast_fp16")]; + tensor input_3_cast_fp16 = layer_norm(axes = input_3_axes_0, beta = model_encoder_layers_0_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_feed_forward1_weight_to_fp16, x = x_1_cast_fp16)[name = tensor("input_3_cast_fp16")]; tensor model_encoder_layers_0_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(2240)))]; tensor model_encoder_layers_0_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(2099456)))]; - tensor linear_0_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_0_feed_forward1_linear1_weight_to_fp16, x = input_3_cast_fp16)[name = tensor("linear_0_cast_fp16")]; - tensor input_7_cast_fp16 = silu(x = linear_0_cast_fp16)[name = tensor("input_7_cast_fp16")]; + tensor linear_0_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_0_feed_forward1_linear1_weight_to_fp16, x = input_3_cast_fp16)[name = tensor("linear_0_cast_fp16")]; + tensor input_7_cast_fp16 = silu(x = linear_0_cast_fp16)[name = tensor("input_7_cast_fp16")]; tensor model_encoder_layers_0_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(2103616)))]; tensor model_encoder_layers_0_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(4200832)))]; - tensor linear_1_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_0_feed_forward1_linear2_weight_to_fp16, x = input_7_cast_fp16)[name = tensor("linear_1_cast_fp16")]; + tensor linear_1_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_0_feed_forward1_linear2_weight_to_fp16, x = input_7_cast_fp16)[name = tensor("linear_1_cast_fp16")]; tensor var_144_to_fp16 = const()[name = tensor("op_144_to_fp16"), val = tensor(0x1p-1)]; - tensor var_145_cast_fp16 = mul(x = linear_1_cast_fp16, y = var_144_to_fp16)[name = tensor("op_145_cast_fp16")]; - tensor input_13_cast_fp16 = add(x = x_1_cast_fp16, y = var_145_cast_fp16)[name = tensor("input_13_cast_fp16")]; + tensor var_145_cast_fp16 = mul(x = linear_1_cast_fp16, y = var_144_to_fp16)[name = tensor("op_145_cast_fp16")]; + tensor input_13_cast_fp16 = add(x = x_1_cast_fp16, y = var_145_cast_fp16)[name = tensor("input_13_cast_fp16")]; tensor query_1_axes_0 = const()[name = tensor("query_1_axes_0"), val = tensor([-1])]; tensor model_encoder_layers_0_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(4201920)))]; tensor model_encoder_layers_0_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(4203008)))]; - tensor query_1_cast_fp16 = layer_norm(axes = query_1_axes_0, beta = model_encoder_layers_0_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_self_att_weight_to_fp16, x = input_13_cast_fp16)[name = tensor("query_1_cast_fp16")]; + tensor query_1_cast_fp16 = layer_norm(axes = query_1_axes_0, beta = model_encoder_layers_0_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_self_att_weight_to_fp16, x = input_13_cast_fp16)[name = tensor("query_1_cast_fp16")]; tensor model_encoder_layers_0_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(4204096)))]; tensor model_encoder_layers_0_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(4728448)))]; - tensor linear_2_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_q_weight_to_fp16, x = query_1_cast_fp16)[name = tensor("linear_2_cast_fp16")]; + tensor linear_2_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_q_weight_to_fp16, x = query_1_cast_fp16)[name = tensor("linear_2_cast_fp16")]; tensor var_162 = const()[name = tensor("op_162"), val = tensor([1, -1, 8, 64])]; - tensor q_1_cast_fp16 = reshape(shape = var_162, x = linear_2_cast_fp16)[name = tensor("q_1_cast_fp16")]; + tensor q_1_cast_fp16 = reshape(shape = var_162, x = linear_2_cast_fp16)[name = tensor("q_1_cast_fp16")]; tensor model_encoder_layers_0_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(4729536)))]; tensor model_encoder_layers_0_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(5253888)))]; - tensor linear_3_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_k_weight_to_fp16, x = query_1_cast_fp16)[name = tensor("linear_3_cast_fp16")]; + tensor linear_3_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_k_weight_to_fp16, x = query_1_cast_fp16)[name = tensor("linear_3_cast_fp16")]; tensor var_167 = const()[name = tensor("op_167"), val = tensor([1, -1, 8, 64])]; - tensor k_1_cast_fp16 = reshape(shape = var_167, x = linear_3_cast_fp16)[name = tensor("k_1_cast_fp16")]; + tensor k_1_cast_fp16 = reshape(shape = var_167, x = linear_3_cast_fp16)[name = tensor("k_1_cast_fp16")]; tensor model_encoder_layers_0_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(5254976)))]; tensor model_encoder_layers_0_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(5779328)))]; - tensor linear_4_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_v_weight_to_fp16, x = query_1_cast_fp16)[name = tensor("linear_4_cast_fp16")]; + tensor linear_4_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_v_weight_to_fp16, x = query_1_cast_fp16)[name = tensor("linear_4_cast_fp16")]; tensor var_172 = const()[name = tensor("op_172"), val = tensor([1, -1, 8, 64])]; - tensor v_1_cast_fp16 = reshape(shape = var_172, x = linear_4_cast_fp16)[name = tensor("v_1_cast_fp16")]; + tensor v_1_cast_fp16 = reshape(shape = var_172, x = linear_4_cast_fp16)[name = tensor("v_1_cast_fp16")]; tensor value_1_perm_0 = const()[name = tensor("value_1_perm_0"), val = tensor([0, 2, 1, 3])]; tensor model_encoder_layers_0_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(5780416)))]; - tensor var_184_cast_fp16 = add(x = q_1_cast_fp16, y = model_encoder_layers_0_self_attn_pos_bias_u_to_fp16)[name = tensor("op_184_cast_fp16")]; + tensor var_184_cast_fp16 = add(x = q_1_cast_fp16, y = model_encoder_layers_0_self_attn_pos_bias_u_to_fp16)[name = tensor("op_184_cast_fp16")]; tensor model_encoder_layers_0_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(5781504)))]; - tensor var_186_cast_fp16 = add(x = q_1_cast_fp16, y = model_encoder_layers_0_self_attn_pos_bias_v_to_fp16)[name = tensor("op_186_cast_fp16")]; + tensor var_186_cast_fp16 = add(x = q_1_cast_fp16, y = model_encoder_layers_0_self_attn_pos_bias_v_to_fp16)[name = tensor("op_186_cast_fp16")]; tensor q_with_bias_v_1_perm_0 = const()[name = tensor("q_with_bias_v_1_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_5_transpose_x_0 = const()[name = tensor("x_5_transpose_x_0"), val = tensor(false)]; tensor x_5_transpose_y_0 = const()[name = tensor("x_5_transpose_y_0"), val = tensor(false)]; - tensor var_188_to_fp16 = const()[name = tensor("op_188_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(5782592)))]; - tensor q_with_bias_v_1_cast_fp16 = transpose(perm = q_with_bias_v_1_perm_0, x = var_186_cast_fp16)[name = tensor("transpose_310")]; - tensor x_5_cast_fp16 = matmul(transpose_x = x_5_transpose_x_0, transpose_y = x_5_transpose_y_0, x = q_with_bias_v_1_cast_fp16, y = var_188_to_fp16)[name = tensor("x_5_cast_fp16")]; + tensor var_188_to_fp16 = const()[name = tensor("op_188_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(5782592)))]; + tensor q_with_bias_v_1_cast_fp16 = transpose(perm = q_with_bias_v_1_perm_0, x = var_186_cast_fp16)[name = tensor("transpose_310")]; + tensor x_5_cast_fp16 = matmul(transpose_x = x_5_transpose_x_0, transpose_y = x_5_transpose_y_0, x = q_with_bias_v_1_cast_fp16, y = var_188_to_fp16)[name = tensor("x_5_cast_fp16")]; tensor x_7_pad_0 = const()[name = tensor("x_7_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_7_mode_0 = const()[name = tensor("x_7_mode_0"), val = tensor("constant")]; tensor const_12_to_fp16 = const()[name = tensor("const_12_to_fp16"), val = tensor(0x0p+0)]; - tensor x_7_cast_fp16 = pad(constant_val = const_12_to_fp16, mode = x_7_mode_0, pad = x_7_pad_0, x = x_5_cast_fp16)[name = tensor("x_7_cast_fp16")]; - tensor var_196 = const()[name = tensor("op_196"), val = tensor([1, 8, -1, 242])]; - tensor x_9_cast_fp16 = reshape(shape = var_196, x = x_7_cast_fp16)[name = tensor("x_9_cast_fp16")]; + tensor x_7_cast_fp16 = pad(constant_val = const_12_to_fp16, mode = x_7_mode_0, pad = x_7_pad_0, x = x_5_cast_fp16)[name = tensor("x_7_cast_fp16")]; + tensor var_196 = const()[name = tensor("op_196"), val = tensor([1, 8, -1, 390])]; + tensor x_9_cast_fp16 = reshape(shape = var_196, x = x_7_cast_fp16)[name = tensor("x_9_cast_fp16")]; tensor var_200_begin_0 = const()[name = tensor("op_200_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_200_end_0 = const()[name = tensor("op_200_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_200_end_0 = const()[name = tensor("op_200_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_200_end_mask_0 = const()[name = tensor("op_200_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_200_cast_fp16 = slice_by_index(begin = var_200_begin_0, end = var_200_end_0, end_mask = var_200_end_mask_0, x = x_9_cast_fp16)[name = tensor("op_200_cast_fp16")]; - tensor var_201 = const()[name = tensor("op_201"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_1_cast_fp16 = reshape(shape = var_201, x = var_200_cast_fp16)[name = tensor("matrix_bd_1_cast_fp16")]; + tensor var_200_cast_fp16 = slice_by_index(begin = var_200_begin_0, end = var_200_end_0, end_mask = var_200_end_mask_0, x = x_9_cast_fp16)[name = tensor("op_200_cast_fp16")]; + tensor var_201 = const()[name = tensor("op_201"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_1_cast_fp16 = reshape(shape = var_201, x = var_200_cast_fp16)[name = tensor("matrix_bd_1_cast_fp16")]; tensor matrix_ac_1_transpose_x_0 = const()[name = tensor("matrix_ac_1_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_1_transpose_y_0 = const()[name = tensor("matrix_ac_1_transpose_y_0"), val = tensor(false)]; tensor transpose_51_perm_0 = const()[name = tensor("transpose_51_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_52_perm_0 = const()[name = tensor("transpose_52_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_52 = transpose(perm = transpose_52_perm_0, x = k_1_cast_fp16)[name = tensor("transpose_308")]; - tensor transpose_51 = transpose(perm = transpose_51_perm_0, x = var_184_cast_fp16)[name = tensor("transpose_309")]; - tensor matrix_ac_1_cast_fp16 = matmul(transpose_x = matrix_ac_1_transpose_x_0, transpose_y = matrix_ac_1_transpose_y_0, x = transpose_51, y = transpose_52)[name = tensor("matrix_ac_1_cast_fp16")]; + tensor transpose_52 = transpose(perm = transpose_52_perm_0, x = k_1_cast_fp16)[name = tensor("transpose_308")]; + tensor transpose_51 = transpose(perm = transpose_51_perm_0, x = var_184_cast_fp16)[name = tensor("transpose_309")]; + tensor matrix_ac_1_cast_fp16 = matmul(transpose_x = matrix_ac_1_transpose_x_0, transpose_y = matrix_ac_1_transpose_y_0, x = transpose_51, y = transpose_52)[name = tensor("matrix_ac_1_cast_fp16")]; tensor matrix_bd_3_begin_0 = const()[name = tensor("matrix_bd_3_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_3_end_0 = const()[name = tensor("matrix_bd_3_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_3_end_0 = const()[name = tensor("matrix_bd_3_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_3_end_mask_0 = const()[name = tensor("matrix_bd_3_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_3_cast_fp16 = slice_by_index(begin = matrix_bd_3_begin_0, end = matrix_bd_3_end_0, end_mask = matrix_bd_3_end_mask_0, x = matrix_bd_1_cast_fp16)[name = tensor("matrix_bd_3_cast_fp16")]; - tensor var_210_cast_fp16 = add(x = matrix_ac_1_cast_fp16, y = matrix_bd_3_cast_fp16)[name = tensor("op_210_cast_fp16")]; + tensor matrix_bd_3_cast_fp16 = slice_by_index(begin = matrix_bd_3_begin_0, end = matrix_bd_3_end_0, end_mask = matrix_bd_3_end_mask_0, x = matrix_bd_1_cast_fp16)[name = tensor("matrix_bd_3_cast_fp16")]; + tensor var_210_cast_fp16 = add(x = matrix_ac_1_cast_fp16, y = matrix_bd_3_cast_fp16)[name = tensor("op_210_cast_fp16")]; tensor _inversed_scores_1_y_0_to_fp16 = const()[name = tensor("_inversed_scores_1_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_1_cast_fp16 = mul(x = var_210_cast_fp16, y = _inversed_scores_1_y_0_to_fp16)[name = tensor("_inversed_scores_1_cast_fp16")]; + tensor _inversed_scores_1_cast_fp16 = mul(x = var_210_cast_fp16, y = _inversed_scores_1_y_0_to_fp16)[name = tensor("_inversed_scores_1_cast_fp16")]; tensor mask_3_axes_0 = const()[name = tensor("mask_3_axes_0"), val = tensor([1])]; - tensor mask_3 = expand_dims(axes = mask_3_axes_0, x = mask_1)[name = tensor("mask_3")]; + tensor mask_3 = expand_dims(axes = mask_3_axes_0, x = mask_1)[name = tensor("mask_3")]; tensor var_22_to_fp16 = const()[name = tensor("op_22_to_fp16"), val = tensor(-0x1.388p+13)]; - tensor scores_3_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_1_cast_fp16, cond = mask_3)[name = tensor("scores_3_cast_fp16")]; - tensor var_216_cast_fp16 = softmax(axis = var_30, x = scores_3_cast_fp16)[name = tensor("op_216_cast_fp16")]; + tensor scores_3_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_1_cast_fp16, cond = mask_3)[name = tensor("scores_3_cast_fp16")]; + tensor var_216_cast_fp16 = softmax(axis = var_30, x = scores_3_cast_fp16)[name = tensor("op_216_cast_fp16")]; tensor var_21_to_fp16 = const()[name = tensor("op_21_to_fp16"), val = tensor(0x0p+0)]; - tensor input_15_cast_fp16 = select(a = var_21_to_fp16, b = var_216_cast_fp16, cond = mask_3)[name = tensor("input_15_cast_fp16")]; + tensor input_15_cast_fp16 = select(a = var_21_to_fp16, b = var_216_cast_fp16, cond = mask_3)[name = tensor("input_15_cast_fp16")]; tensor x_11_transpose_x_0 = const()[name = tensor("x_11_transpose_x_0"), val = tensor(false)]; tensor x_11_transpose_y_0 = const()[name = tensor("x_11_transpose_y_0"), val = tensor(false)]; - tensor value_1_cast_fp16 = transpose(perm = value_1_perm_0, x = v_1_cast_fp16)[name = tensor("transpose_311")]; - tensor x_11_cast_fp16 = matmul(transpose_x = x_11_transpose_x_0, transpose_y = x_11_transpose_y_0, x = input_15_cast_fp16, y = value_1_cast_fp16)[name = tensor("x_11_cast_fp16")]; + tensor value_1_cast_fp16 = transpose(perm = value_1_perm_0, x = v_1_cast_fp16)[name = tensor("transpose_311")]; + tensor x_11_cast_fp16 = matmul(transpose_x = x_11_transpose_x_0, transpose_y = x_11_transpose_y_0, x = input_15_cast_fp16, y = value_1_cast_fp16)[name = tensor("x_11_cast_fp16")]; tensor var_220_perm_0 = const()[name = tensor("op_220_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_221 = const()[name = tensor("op_221"), val = tensor([1, -1, 512])]; - tensor var_220_cast_fp16 = transpose(perm = var_220_perm_0, x = x_11_cast_fp16)[name = tensor("transpose_307")]; - tensor input_17_cast_fp16 = reshape(shape = var_221, x = var_220_cast_fp16)[name = tensor("input_17_cast_fp16")]; - tensor model_encoder_layers_0_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(6277248)))]; - tensor model_encoder_layers_0_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(6801600)))]; - tensor linear_6_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_out_weight_to_fp16, x = input_17_cast_fp16)[name = tensor("linear_6_cast_fp16")]; - tensor input_21_cast_fp16 = add(x = input_13_cast_fp16, y = linear_6_cast_fp16)[name = tensor("input_21_cast_fp16")]; + tensor var_220_cast_fp16 = transpose(perm = var_220_perm_0, x = x_11_cast_fp16)[name = tensor("transpose_307")]; + tensor input_17_cast_fp16 = reshape(shape = var_221, x = var_220_cast_fp16)[name = tensor("input_17_cast_fp16")]; + tensor model_encoder_layers_0_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(6580352)))]; + tensor model_encoder_layers_0_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7104704)))]; + tensor linear_6_cast_fp16 = linear(bias = model_encoder_layers_0_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_0_self_attn_linear_out_weight_to_fp16, x = input_17_cast_fp16)[name = tensor("linear_6_cast_fp16")]; + tensor input_21_cast_fp16 = add(x = input_13_cast_fp16, y = linear_6_cast_fp16)[name = tensor("input_21_cast_fp16")]; tensor x_15_axes_0 = const()[name = tensor("x_15_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_0_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(6802688)))]; - tensor model_encoder_layers_0_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(6803776)))]; - tensor x_15_cast_fp16 = layer_norm(axes = x_15_axes_0, beta = model_encoder_layers_0_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_conv_weight_to_fp16, x = input_21_cast_fp16)[name = tensor("x_15_cast_fp16")]; + tensor model_encoder_layers_0_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7105792)))]; + tensor model_encoder_layers_0_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7106880)))]; + tensor x_15_cast_fp16 = layer_norm(axes = x_15_axes_0, beta = model_encoder_layers_0_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_conv_weight_to_fp16, x = input_21_cast_fp16)[name = tensor("x_15_cast_fp16")]; tensor input_23_perm_0 = const()[name = tensor("input_23_perm_0"), val = tensor([0, 2, 1])]; tensor input_25_pad_type_0 = const()[name = tensor("input_25_pad_type_0"), val = tensor("valid")]; tensor input_25_strides_0 = const()[name = tensor("input_25_strides_0"), val = tensor([1])]; tensor input_25_pad_0 = const()[name = tensor("input_25_pad_0"), val = tensor([0, 0])]; tensor input_25_dilations_0 = const()[name = tensor("input_25_dilations_0"), val = tensor([1])]; tensor input_25_groups_0 = const()[name = tensor("input_25_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_0_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(6804864)))]; - tensor model_encoder_layers_0_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7853504)))]; - tensor input_23_cast_fp16 = transpose(perm = input_23_perm_0, x = x_15_cast_fp16)[name = tensor("transpose_306")]; - tensor input_25_cast_fp16 = conv(bias = model_encoder_layers_0_conv_pointwise_conv1_bias_to_fp16, dilations = input_25_dilations_0, groups = input_25_groups_0, pad = input_25_pad_0, pad_type = input_25_pad_type_0, strides = input_25_strides_0, weight = model_encoder_layers_0_conv_pointwise_conv1_weight_to_fp16, x = input_23_cast_fp16)[name = tensor("input_25_cast_fp16")]; + tensor model_encoder_layers_0_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7107968)))]; + tensor model_encoder_layers_0_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8156608)))]; + tensor input_23_cast_fp16 = transpose(perm = input_23_perm_0, x = x_15_cast_fp16)[name = tensor("transpose_306")]; + tensor input_25_cast_fp16 = conv(bias = model_encoder_layers_0_conv_pointwise_conv1_bias_to_fp16, dilations = input_25_dilations_0, groups = input_25_groups_0, pad = input_25_pad_0, pad_type = input_25_pad_type_0, strides = input_25_strides_0, weight = model_encoder_layers_0_conv_pointwise_conv1_weight_to_fp16, x = input_23_cast_fp16)[name = tensor("input_25_cast_fp16")]; tensor x_17_split_num_splits_0 = const()[name = tensor("x_17_split_num_splits_0"), val = tensor(2)]; tensor x_17_split_axis_0 = const()[name = tensor("x_17_split_axis_0"), val = tensor(1)]; - tensor x_17_split_cast_fp16_0, tensor x_17_split_cast_fp16_1 = split(axis = x_17_split_axis_0, num_splits = x_17_split_num_splits_0, x = input_25_cast_fp16)[name = tensor("x_17_split_cast_fp16")]; - tensor x_17_split_1_sigmoid_cast_fp16 = sigmoid(x = x_17_split_cast_fp16_1)[name = tensor("x_17_split_1_sigmoid_cast_fp16")]; - tensor x_17_cast_fp16 = mul(x = x_17_split_cast_fp16_0, y = x_17_split_1_sigmoid_cast_fp16)[name = tensor("x_17_cast_fp16")]; + tensor x_17_split_cast_fp16_0, tensor x_17_split_cast_fp16_1 = split(axis = x_17_split_axis_0, num_splits = x_17_split_num_splits_0, x = input_25_cast_fp16)[name = tensor("x_17_split_cast_fp16")]; + tensor x_17_split_1_sigmoid_cast_fp16 = sigmoid(x = x_17_split_cast_fp16_1)[name = tensor("x_17_split_1_sigmoid_cast_fp16")]; + tensor x_17_cast_fp16 = mul(x = x_17_split_cast_fp16_0, y = x_17_split_1_sigmoid_cast_fp16)[name = tensor("x_17_cast_fp16")]; tensor var_245_axes_0 = const()[name = tensor("op_245_axes_0"), val = tensor([1])]; - tensor var_245 = expand_dims(axes = var_245_axes_0, x = pad_mask)[name = tensor("op_245")]; - tensor input_27_cast_fp16 = select(a = var_21_to_fp16, b = x_17_cast_fp16, cond = var_245)[name = tensor("input_27_cast_fp16")]; + tensor var_245 = expand_dims(axes = var_245_axes_0, x = pad_mask)[name = tensor("op_245")]; + tensor input_27_cast_fp16 = select(a = var_21_to_fp16, b = x_17_cast_fp16, cond = var_245)[name = tensor("input_27_cast_fp16")]; tensor input_29_pad_0 = const()[name = tensor("input_29_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_29_mode_0 = const()[name = tensor("input_29_mode_0"), val = tensor("constant")]; tensor const_15_to_fp16 = const()[name = tensor("const_15_to_fp16"), val = tensor(0x0p+0)]; - tensor input_29_cast_fp16 = pad(constant_val = const_15_to_fp16, mode = input_29_mode_0, pad = input_29_pad_0, x = input_27_cast_fp16)[name = tensor("input_29_cast_fp16")]; + tensor input_29_cast_fp16 = pad(constant_val = const_15_to_fp16, mode = input_29_mode_0, pad = input_29_pad_0, x = input_27_cast_fp16)[name = tensor("input_29_cast_fp16")]; tensor input_31_pad_type_0 = const()[name = tensor("input_31_pad_type_0"), val = tensor("valid")]; tensor input_31_groups_0 = const()[name = tensor("input_31_groups_0"), val = tensor(512)]; tensor input_31_strides_0 = const()[name = tensor("input_31_strides_0"), val = tensor([1])]; tensor input_31_pad_0 = const()[name = tensor("input_31_pad_0"), val = tensor([0, 0])]; tensor input_31_dilations_0 = const()[name = tensor("input_31_dilations_0"), val = tensor([1])]; - tensor const_342_to_fp16 = const()[name = tensor("const_342_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7855616)))]; - tensor const_343_to_fp16 = const()[name = tensor("const_343_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7864896)))]; - tensor input_33_cast_fp16 = conv(bias = const_343_to_fp16, dilations = input_31_dilations_0, groups = input_31_groups_0, pad = input_31_pad_0, pad_type = input_31_pad_type_0, strides = input_31_strides_0, weight = const_342_to_fp16, x = input_29_cast_fp16)[name = tensor("input_33_cast_fp16")]; - tensor input_35_cast_fp16 = silu(x = input_33_cast_fp16)[name = tensor("input_35_cast_fp16")]; + tensor const_342_to_fp16 = const()[name = tensor("const_342_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8158720)))]; + tensor const_343_to_fp16 = const()[name = tensor("const_343_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8168000)))]; + tensor input_33_cast_fp16 = conv(bias = const_343_to_fp16, dilations = input_31_dilations_0, groups = input_31_groups_0, pad = input_31_pad_0, pad_type = input_31_pad_type_0, strides = input_31_strides_0, weight = const_342_to_fp16, x = input_29_cast_fp16)[name = tensor("input_33_cast_fp16")]; + tensor input_35_cast_fp16 = silu(x = input_33_cast_fp16)[name = tensor("input_35_cast_fp16")]; tensor x_19_pad_type_0 = const()[name = tensor("x_19_pad_type_0"), val = tensor("valid")]; tensor x_19_strides_0 = const()[name = tensor("x_19_strides_0"), val = tensor([1])]; tensor x_19_pad_0 = const()[name = tensor("x_19_pad_0"), val = tensor([0, 0])]; tensor x_19_dilations_0 = const()[name = tensor("x_19_dilations_0"), val = tensor([1])]; tensor x_19_groups_0 = const()[name = tensor("x_19_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_0_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(7865984)))]; - tensor model_encoder_layers_0_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8390336)))]; - tensor x_19_cast_fp16 = conv(bias = model_encoder_layers_0_conv_pointwise_conv2_bias_to_fp16, dilations = x_19_dilations_0, groups = x_19_groups_0, pad = x_19_pad_0, pad_type = x_19_pad_type_0, strides = x_19_strides_0, weight = model_encoder_layers_0_conv_pointwise_conv2_weight_to_fp16, x = input_35_cast_fp16)[name = tensor("x_19_cast_fp16")]; + tensor model_encoder_layers_0_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8169088)))]; + tensor model_encoder_layers_0_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8693440)))]; + tensor x_19_cast_fp16 = conv(bias = model_encoder_layers_0_conv_pointwise_conv2_bias_to_fp16, dilations = x_19_dilations_0, groups = x_19_groups_0, pad = x_19_pad_0, pad_type = x_19_pad_type_0, strides = x_19_strides_0, weight = model_encoder_layers_0_conv_pointwise_conv2_weight_to_fp16, x = input_35_cast_fp16)[name = tensor("x_19_cast_fp16")]; tensor input_37_perm_0 = const()[name = tensor("input_37_perm_0"), val = tensor([0, 2, 1])]; - tensor input_37_cast_fp16 = transpose(perm = input_37_perm_0, x = x_19_cast_fp16)[name = tensor("transpose_305")]; - tensor input_39_cast_fp16 = add(x = input_21_cast_fp16, y = input_37_cast_fp16)[name = tensor("input_39_cast_fp16")]; + tensor input_37_cast_fp16 = transpose(perm = input_37_perm_0, x = x_19_cast_fp16)[name = tensor("transpose_305")]; + tensor input_39_cast_fp16 = add(x = input_21_cast_fp16, y = input_37_cast_fp16)[name = tensor("input_39_cast_fp16")]; tensor input_41_axes_0 = const()[name = tensor("input_41_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_0_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8391424)))]; - tensor model_encoder_layers_0_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8392512)))]; - tensor input_41_cast_fp16 = layer_norm(axes = input_41_axes_0, beta = model_encoder_layers_0_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_feed_forward2_weight_to_fp16, x = input_39_cast_fp16)[name = tensor("input_41_cast_fp16")]; - tensor model_encoder_layers_0_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8393600)))]; - tensor model_encoder_layers_0_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(10490816)))]; - tensor linear_7_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_0_feed_forward2_linear1_weight_to_fp16, x = input_41_cast_fp16)[name = tensor("linear_7_cast_fp16")]; - tensor input_45_cast_fp16 = silu(x = linear_7_cast_fp16)[name = tensor("input_45_cast_fp16")]; - tensor model_encoder_layers_0_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(10494976)))]; - tensor model_encoder_layers_0_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12592192)))]; - tensor linear_8_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_0_feed_forward2_linear2_weight_to_fp16, x = input_45_cast_fp16)[name = tensor("linear_8_cast_fp16")]; + tensor model_encoder_layers_0_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8694528)))]; + tensor model_encoder_layers_0_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8695616)))]; + tensor input_41_cast_fp16 = layer_norm(axes = input_41_axes_0, beta = model_encoder_layers_0_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_feed_forward2_weight_to_fp16, x = input_39_cast_fp16)[name = tensor("input_41_cast_fp16")]; + tensor model_encoder_layers_0_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(8696704)))]; + tensor model_encoder_layers_0_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(10793920)))]; + tensor linear_7_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_0_feed_forward2_linear1_weight_to_fp16, x = input_41_cast_fp16)[name = tensor("linear_7_cast_fp16")]; + tensor input_45_cast_fp16 = silu(x = linear_7_cast_fp16)[name = tensor("input_45_cast_fp16")]; + tensor model_encoder_layers_0_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(10798080)))]; + tensor model_encoder_layers_0_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12895296)))]; + tensor linear_8_cast_fp16 = linear(bias = model_encoder_layers_0_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_0_feed_forward2_linear2_weight_to_fp16, x = input_45_cast_fp16)[name = tensor("linear_8_cast_fp16")]; tensor var_287_to_fp16 = const()[name = tensor("op_287_to_fp16"), val = tensor(0x1p-1)]; - tensor var_288_cast_fp16 = mul(x = linear_8_cast_fp16, y = var_287_to_fp16)[name = tensor("op_288_cast_fp16")]; - tensor input_51_cast_fp16 = add(x = input_39_cast_fp16, y = var_288_cast_fp16)[name = tensor("input_51_cast_fp16")]; + tensor var_288_cast_fp16 = mul(x = linear_8_cast_fp16, y = var_287_to_fp16)[name = tensor("op_288_cast_fp16")]; + tensor input_51_cast_fp16 = add(x = input_39_cast_fp16, y = var_288_cast_fp16)[name = tensor("input_51_cast_fp16")]; tensor input_53_axes_0 = const()[name = tensor("input_53_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_0_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12593280)))]; - tensor model_encoder_layers_0_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12594368)))]; - tensor input_53_cast_fp16 = layer_norm(axes = input_53_axes_0, beta = model_encoder_layers_0_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_out_weight_to_fp16, x = input_51_cast_fp16)[name = tensor("input_53_cast_fp16")]; + tensor model_encoder_layers_0_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12896384)))]; + tensor model_encoder_layers_0_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_0_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12897472)))]; + tensor input_53_cast_fp16 = layer_norm(axes = input_53_axes_0, beta = model_encoder_layers_0_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_0_norm_out_weight_to_fp16, x = input_51_cast_fp16)[name = tensor("input_53_cast_fp16")]; tensor input_55_axes_0 = const()[name = tensor("input_55_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_1_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12595456)))]; - tensor model_encoder_layers_1_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12596544)))]; - tensor input_55_cast_fp16 = layer_norm(axes = input_55_axes_0, beta = model_encoder_layers_1_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_feed_forward1_weight_to_fp16, x = input_53_cast_fp16)[name = tensor("input_55_cast_fp16")]; - tensor model_encoder_layers_1_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12597632)))]; - tensor model_encoder_layers_1_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(14694848)))]; - tensor linear_9_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_1_feed_forward1_linear1_weight_to_fp16, x = input_55_cast_fp16)[name = tensor("linear_9_cast_fp16")]; - tensor input_59_cast_fp16 = silu(x = linear_9_cast_fp16)[name = tensor("input_59_cast_fp16")]; - tensor model_encoder_layers_1_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(14699008)))]; - tensor model_encoder_layers_1_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(16796224)))]; - tensor linear_10_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_1_feed_forward1_linear2_weight_to_fp16, x = input_59_cast_fp16)[name = tensor("linear_10_cast_fp16")]; + tensor model_encoder_layers_1_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12898560)))]; + tensor model_encoder_layers_1_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12899648)))]; + tensor input_55_cast_fp16 = layer_norm(axes = input_55_axes_0, beta = model_encoder_layers_1_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_feed_forward1_weight_to_fp16, x = input_53_cast_fp16)[name = tensor("input_55_cast_fp16")]; + tensor model_encoder_layers_1_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(12900736)))]; + tensor model_encoder_layers_1_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(14997952)))]; + tensor linear_9_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_1_feed_forward1_linear1_weight_to_fp16, x = input_55_cast_fp16)[name = tensor("linear_9_cast_fp16")]; + tensor input_59_cast_fp16 = silu(x = linear_9_cast_fp16)[name = tensor("input_59_cast_fp16")]; + tensor model_encoder_layers_1_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(15002112)))]; + tensor model_encoder_layers_1_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17099328)))]; + tensor linear_10_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_1_feed_forward1_linear2_weight_to_fp16, x = input_59_cast_fp16)[name = tensor("linear_10_cast_fp16")]; tensor var_318_to_fp16 = const()[name = tensor("op_318_to_fp16"), val = tensor(0x1p-1)]; - tensor var_319_cast_fp16 = mul(x = linear_10_cast_fp16, y = var_318_to_fp16)[name = tensor("op_319_cast_fp16")]; - tensor input_65_cast_fp16 = add(x = input_53_cast_fp16, y = var_319_cast_fp16)[name = tensor("input_65_cast_fp16")]; + tensor var_319_cast_fp16 = mul(x = linear_10_cast_fp16, y = var_318_to_fp16)[name = tensor("op_319_cast_fp16")]; + tensor input_65_cast_fp16 = add(x = input_53_cast_fp16, y = var_319_cast_fp16)[name = tensor("input_65_cast_fp16")]; tensor query_3_axes_0 = const()[name = tensor("query_3_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_1_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(16797312)))]; - tensor model_encoder_layers_1_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(16798400)))]; - tensor query_3_cast_fp16 = layer_norm(axes = query_3_axes_0, beta = model_encoder_layers_1_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_self_att_weight_to_fp16, x = input_65_cast_fp16)[name = tensor("query_3_cast_fp16")]; - tensor model_encoder_layers_1_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(16799488)))]; - tensor model_encoder_layers_1_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17323840)))]; - tensor linear_11_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_q_weight_to_fp16, x = query_3_cast_fp16)[name = tensor("linear_11_cast_fp16")]; + tensor model_encoder_layers_1_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17100416)))]; + tensor model_encoder_layers_1_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17101504)))]; + tensor query_3_cast_fp16 = layer_norm(axes = query_3_axes_0, beta = model_encoder_layers_1_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_self_att_weight_to_fp16, x = input_65_cast_fp16)[name = tensor("query_3_cast_fp16")]; + tensor model_encoder_layers_1_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17102592)))]; + tensor model_encoder_layers_1_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17626944)))]; + tensor linear_11_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_q_weight_to_fp16, x = query_3_cast_fp16)[name = tensor("linear_11_cast_fp16")]; tensor var_336 = const()[name = tensor("op_336"), val = tensor([1, -1, 8, 64])]; - tensor q_7_cast_fp16 = reshape(shape = var_336, x = linear_11_cast_fp16)[name = tensor("q_7_cast_fp16")]; - tensor model_encoder_layers_1_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17324928)))]; - tensor model_encoder_layers_1_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17849280)))]; - tensor linear_12_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_k_weight_to_fp16, x = query_3_cast_fp16)[name = tensor("linear_12_cast_fp16")]; + tensor q_7_cast_fp16 = reshape(shape = var_336, x = linear_11_cast_fp16)[name = tensor("q_7_cast_fp16")]; + tensor model_encoder_layers_1_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17628032)))]; + tensor model_encoder_layers_1_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18152384)))]; + tensor linear_12_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_k_weight_to_fp16, x = query_3_cast_fp16)[name = tensor("linear_12_cast_fp16")]; tensor var_341 = const()[name = tensor("op_341"), val = tensor([1, -1, 8, 64])]; - tensor k_5_cast_fp16 = reshape(shape = var_341, x = linear_12_cast_fp16)[name = tensor("k_5_cast_fp16")]; - tensor model_encoder_layers_1_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(17850368)))]; - tensor model_encoder_layers_1_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18374720)))]; - tensor linear_13_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_v_weight_to_fp16, x = query_3_cast_fp16)[name = tensor("linear_13_cast_fp16")]; + tensor k_5_cast_fp16 = reshape(shape = var_341, x = linear_12_cast_fp16)[name = tensor("k_5_cast_fp16")]; + tensor model_encoder_layers_1_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18153472)))]; + tensor model_encoder_layers_1_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18677824)))]; + tensor linear_13_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_v_weight_to_fp16, x = query_3_cast_fp16)[name = tensor("linear_13_cast_fp16")]; tensor var_346 = const()[name = tensor("op_346"), val = tensor([1, -1, 8, 64])]; - tensor v_3_cast_fp16 = reshape(shape = var_346, x = linear_13_cast_fp16)[name = tensor("v_3_cast_fp16")]; + tensor v_3_cast_fp16 = reshape(shape = var_346, x = linear_13_cast_fp16)[name = tensor("v_3_cast_fp16")]; tensor value_3_perm_0 = const()[name = tensor("value_3_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_1_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18375808)))]; - tensor var_358_cast_fp16 = add(x = q_7_cast_fp16, y = model_encoder_layers_1_self_attn_pos_bias_u_to_fp16)[name = tensor("op_358_cast_fp16")]; - tensor model_encoder_layers_1_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18376896)))]; - tensor var_360_cast_fp16 = add(x = q_7_cast_fp16, y = model_encoder_layers_1_self_attn_pos_bias_v_to_fp16)[name = tensor("op_360_cast_fp16")]; + tensor model_encoder_layers_1_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18678912)))]; + tensor var_358_cast_fp16 = add(x = q_7_cast_fp16, y = model_encoder_layers_1_self_attn_pos_bias_u_to_fp16)[name = tensor("op_358_cast_fp16")]; + tensor model_encoder_layers_1_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18680000)))]; + tensor var_360_cast_fp16 = add(x = q_7_cast_fp16, y = model_encoder_layers_1_self_attn_pos_bias_v_to_fp16)[name = tensor("op_360_cast_fp16")]; tensor q_with_bias_v_3_perm_0 = const()[name = tensor("q_with_bias_v_3_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_27_transpose_x_0 = const()[name = tensor("x_27_transpose_x_0"), val = tensor(false)]; tensor x_27_transpose_y_0 = const()[name = tensor("x_27_transpose_y_0"), val = tensor(false)]; - tensor var_362_to_fp16 = const()[name = tensor("op_362_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18377984)))]; - tensor q_with_bias_v_3_cast_fp16 = transpose(perm = q_with_bias_v_3_perm_0, x = var_360_cast_fp16)[name = tensor("transpose_303")]; - tensor x_27_cast_fp16 = matmul(transpose_x = x_27_transpose_x_0, transpose_y = x_27_transpose_y_0, x = q_with_bias_v_3_cast_fp16, y = var_362_to_fp16)[name = tensor("x_27_cast_fp16")]; + tensor var_362_to_fp16 = const()[name = tensor("op_362_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18681088)))]; + tensor q_with_bias_v_3_cast_fp16 = transpose(perm = q_with_bias_v_3_perm_0, x = var_360_cast_fp16)[name = tensor("transpose_303")]; + tensor x_27_cast_fp16 = matmul(transpose_x = x_27_transpose_x_0, transpose_y = x_27_transpose_y_0, x = q_with_bias_v_3_cast_fp16, y = var_362_to_fp16)[name = tensor("x_27_cast_fp16")]; tensor x_29_pad_0 = const()[name = tensor("x_29_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_29_mode_0 = const()[name = tensor("x_29_mode_0"), val = tensor("constant")]; tensor const_22_to_fp16 = const()[name = tensor("const_22_to_fp16"), val = tensor(0x0p+0)]; - tensor x_29_cast_fp16 = pad(constant_val = const_22_to_fp16, mode = x_29_mode_0, pad = x_29_pad_0, x = x_27_cast_fp16)[name = tensor("x_29_cast_fp16")]; - tensor var_370 = const()[name = tensor("op_370"), val = tensor([1, 8, -1, 242])]; - tensor x_31_cast_fp16 = reshape(shape = var_370, x = x_29_cast_fp16)[name = tensor("x_31_cast_fp16")]; + tensor x_29_cast_fp16 = pad(constant_val = const_22_to_fp16, mode = x_29_mode_0, pad = x_29_pad_0, x = x_27_cast_fp16)[name = tensor("x_29_cast_fp16")]; + tensor var_370 = const()[name = tensor("op_370"), val = tensor([1, 8, -1, 390])]; + tensor x_31_cast_fp16 = reshape(shape = var_370, x = x_29_cast_fp16)[name = tensor("x_31_cast_fp16")]; tensor var_374_begin_0 = const()[name = tensor("op_374_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_374_end_0 = const()[name = tensor("op_374_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_374_end_0 = const()[name = tensor("op_374_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_374_end_mask_0 = const()[name = tensor("op_374_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_374_cast_fp16 = slice_by_index(begin = var_374_begin_0, end = var_374_end_0, end_mask = var_374_end_mask_0, x = x_31_cast_fp16)[name = tensor("op_374_cast_fp16")]; - tensor var_375 = const()[name = tensor("op_375"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_5_cast_fp16 = reshape(shape = var_375, x = var_374_cast_fp16)[name = tensor("matrix_bd_5_cast_fp16")]; + tensor var_374_cast_fp16 = slice_by_index(begin = var_374_begin_0, end = var_374_end_0, end_mask = var_374_end_mask_0, x = x_31_cast_fp16)[name = tensor("op_374_cast_fp16")]; + tensor var_375 = const()[name = tensor("op_375"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_5_cast_fp16 = reshape(shape = var_375, x = var_374_cast_fp16)[name = tensor("matrix_bd_5_cast_fp16")]; tensor matrix_ac_3_transpose_x_0 = const()[name = tensor("matrix_ac_3_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_3_transpose_y_0 = const()[name = tensor("matrix_ac_3_transpose_y_0"), val = tensor(false)]; tensor transpose_53_perm_0 = const()[name = tensor("transpose_53_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_54_perm_0 = const()[name = tensor("transpose_54_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_54 = transpose(perm = transpose_54_perm_0, x = k_5_cast_fp16)[name = tensor("transpose_301")]; - tensor transpose_53 = transpose(perm = transpose_53_perm_0, x = var_358_cast_fp16)[name = tensor("transpose_302")]; - tensor matrix_ac_3_cast_fp16 = matmul(transpose_x = matrix_ac_3_transpose_x_0, transpose_y = matrix_ac_3_transpose_y_0, x = transpose_53, y = transpose_54)[name = tensor("matrix_ac_3_cast_fp16")]; + tensor transpose_54 = transpose(perm = transpose_54_perm_0, x = k_5_cast_fp16)[name = tensor("transpose_301")]; + tensor transpose_53 = transpose(perm = transpose_53_perm_0, x = var_358_cast_fp16)[name = tensor("transpose_302")]; + tensor matrix_ac_3_cast_fp16 = matmul(transpose_x = matrix_ac_3_transpose_x_0, transpose_y = matrix_ac_3_transpose_y_0, x = transpose_53, y = transpose_54)[name = tensor("matrix_ac_3_cast_fp16")]; tensor matrix_bd_7_begin_0 = const()[name = tensor("matrix_bd_7_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_7_end_0 = const()[name = tensor("matrix_bd_7_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_7_end_0 = const()[name = tensor("matrix_bd_7_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_7_end_mask_0 = const()[name = tensor("matrix_bd_7_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_7_cast_fp16 = slice_by_index(begin = matrix_bd_7_begin_0, end = matrix_bd_7_end_0, end_mask = matrix_bd_7_end_mask_0, x = matrix_bd_5_cast_fp16)[name = tensor("matrix_bd_7_cast_fp16")]; - tensor var_384_cast_fp16 = add(x = matrix_ac_3_cast_fp16, y = matrix_bd_7_cast_fp16)[name = tensor("op_384_cast_fp16")]; + tensor matrix_bd_7_cast_fp16 = slice_by_index(begin = matrix_bd_7_begin_0, end = matrix_bd_7_end_0, end_mask = matrix_bd_7_end_mask_0, x = matrix_bd_5_cast_fp16)[name = tensor("matrix_bd_7_cast_fp16")]; + tensor var_384_cast_fp16 = add(x = matrix_ac_3_cast_fp16, y = matrix_bd_7_cast_fp16)[name = tensor("op_384_cast_fp16")]; tensor _inversed_scores_5_y_0_to_fp16 = const()[name = tensor("_inversed_scores_5_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_5_cast_fp16 = mul(x = var_384_cast_fp16, y = _inversed_scores_5_y_0_to_fp16)[name = tensor("_inversed_scores_5_cast_fp16")]; - tensor scores_7_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_5_cast_fp16, cond = mask_3)[name = tensor("scores_7_cast_fp16")]; - tensor var_390_cast_fp16 = softmax(axis = var_30, x = scores_7_cast_fp16)[name = tensor("op_390_cast_fp16")]; - tensor input_67_cast_fp16 = select(a = var_21_to_fp16, b = var_390_cast_fp16, cond = mask_3)[name = tensor("input_67_cast_fp16")]; + tensor _inversed_scores_5_cast_fp16 = mul(x = var_384_cast_fp16, y = _inversed_scores_5_y_0_to_fp16)[name = tensor("_inversed_scores_5_cast_fp16")]; + tensor scores_7_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_5_cast_fp16, cond = mask_3)[name = tensor("scores_7_cast_fp16")]; + tensor var_390_cast_fp16 = softmax(axis = var_30, x = scores_7_cast_fp16)[name = tensor("op_390_cast_fp16")]; + tensor input_67_cast_fp16 = select(a = var_21_to_fp16, b = var_390_cast_fp16, cond = mask_3)[name = tensor("input_67_cast_fp16")]; tensor x_33_transpose_x_0 = const()[name = tensor("x_33_transpose_x_0"), val = tensor(false)]; tensor x_33_transpose_y_0 = const()[name = tensor("x_33_transpose_y_0"), val = tensor(false)]; - tensor value_3_cast_fp16 = transpose(perm = value_3_perm_0, x = v_3_cast_fp16)[name = tensor("transpose_304")]; - tensor x_33_cast_fp16 = matmul(transpose_x = x_33_transpose_x_0, transpose_y = x_33_transpose_y_0, x = input_67_cast_fp16, y = value_3_cast_fp16)[name = tensor("x_33_cast_fp16")]; + tensor value_3_cast_fp16 = transpose(perm = value_3_perm_0, x = v_3_cast_fp16)[name = tensor("transpose_304")]; + tensor x_33_cast_fp16 = matmul(transpose_x = x_33_transpose_x_0, transpose_y = x_33_transpose_y_0, x = input_67_cast_fp16, y = value_3_cast_fp16)[name = tensor("x_33_cast_fp16")]; tensor var_394_perm_0 = const()[name = tensor("op_394_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_395 = const()[name = tensor("op_395"), val = tensor([1, -1, 512])]; - tensor var_394_cast_fp16 = transpose(perm = var_394_perm_0, x = x_33_cast_fp16)[name = tensor("transpose_300")]; - tensor input_69_cast_fp16 = reshape(shape = var_395, x = var_394_cast_fp16)[name = tensor("input_69_cast_fp16")]; - tensor model_encoder_layers_1_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(18872640)))]; - tensor model_encoder_layers_1_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(19396992)))]; - tensor linear_15_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_out_weight_to_fp16, x = input_69_cast_fp16)[name = tensor("linear_15_cast_fp16")]; - tensor input_73_cast_fp16 = add(x = input_65_cast_fp16, y = linear_15_cast_fp16)[name = tensor("input_73_cast_fp16")]; + tensor var_394_cast_fp16 = transpose(perm = var_394_perm_0, x = x_33_cast_fp16)[name = tensor("transpose_300")]; + tensor input_69_cast_fp16 = reshape(shape = var_395, x = var_394_cast_fp16)[name = tensor("input_69_cast_fp16")]; + tensor model_encoder_layers_1_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(19478848)))]; + tensor model_encoder_layers_1_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20003200)))]; + tensor linear_15_cast_fp16 = linear(bias = model_encoder_layers_1_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_1_self_attn_linear_out_weight_to_fp16, x = input_69_cast_fp16)[name = tensor("linear_15_cast_fp16")]; + tensor input_73_cast_fp16 = add(x = input_65_cast_fp16, y = linear_15_cast_fp16)[name = tensor("input_73_cast_fp16")]; tensor x_37_axes_0 = const()[name = tensor("x_37_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_1_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(19398080)))]; - tensor model_encoder_layers_1_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(19399168)))]; - tensor x_37_cast_fp16 = layer_norm(axes = x_37_axes_0, beta = model_encoder_layers_1_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_conv_weight_to_fp16, x = input_73_cast_fp16)[name = tensor("x_37_cast_fp16")]; + tensor model_encoder_layers_1_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20004288)))]; + tensor model_encoder_layers_1_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20005376)))]; + tensor x_37_cast_fp16 = layer_norm(axes = x_37_axes_0, beta = model_encoder_layers_1_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_conv_weight_to_fp16, x = input_73_cast_fp16)[name = tensor("x_37_cast_fp16")]; tensor input_75_perm_0 = const()[name = tensor("input_75_perm_0"), val = tensor([0, 2, 1])]; tensor input_77_pad_type_0 = const()[name = tensor("input_77_pad_type_0"), val = tensor("valid")]; tensor input_77_strides_0 = const()[name = tensor("input_77_strides_0"), val = tensor([1])]; tensor input_77_pad_0 = const()[name = tensor("input_77_pad_0"), val = tensor([0, 0])]; tensor input_77_dilations_0 = const()[name = tensor("input_77_dilations_0"), val = tensor([1])]; tensor input_77_groups_0 = const()[name = tensor("input_77_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_1_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(19400256)))]; - tensor model_encoder_layers_1_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20448896)))]; - tensor input_75_cast_fp16 = transpose(perm = input_75_perm_0, x = x_37_cast_fp16)[name = tensor("transpose_299")]; - tensor input_77_cast_fp16 = conv(bias = model_encoder_layers_1_conv_pointwise_conv1_bias_to_fp16, dilations = input_77_dilations_0, groups = input_77_groups_0, pad = input_77_pad_0, pad_type = input_77_pad_type_0, strides = input_77_strides_0, weight = model_encoder_layers_1_conv_pointwise_conv1_weight_to_fp16, x = input_75_cast_fp16)[name = tensor("input_77_cast_fp16")]; + tensor model_encoder_layers_1_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20006464)))]; + tensor model_encoder_layers_1_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21055104)))]; + tensor input_75_cast_fp16 = transpose(perm = input_75_perm_0, x = x_37_cast_fp16)[name = tensor("transpose_299")]; + tensor input_77_cast_fp16 = conv(bias = model_encoder_layers_1_conv_pointwise_conv1_bias_to_fp16, dilations = input_77_dilations_0, groups = input_77_groups_0, pad = input_77_pad_0, pad_type = input_77_pad_type_0, strides = input_77_strides_0, weight = model_encoder_layers_1_conv_pointwise_conv1_weight_to_fp16, x = input_75_cast_fp16)[name = tensor("input_77_cast_fp16")]; tensor x_39_split_num_splits_0 = const()[name = tensor("x_39_split_num_splits_0"), val = tensor(2)]; tensor x_39_split_axis_0 = const()[name = tensor("x_39_split_axis_0"), val = tensor(1)]; - tensor x_39_split_cast_fp16_0, tensor x_39_split_cast_fp16_1 = split(axis = x_39_split_axis_0, num_splits = x_39_split_num_splits_0, x = input_77_cast_fp16)[name = tensor("x_39_split_cast_fp16")]; - tensor x_39_split_1_sigmoid_cast_fp16 = sigmoid(x = x_39_split_cast_fp16_1)[name = tensor("x_39_split_1_sigmoid_cast_fp16")]; - tensor x_39_cast_fp16 = mul(x = x_39_split_cast_fp16_0, y = x_39_split_1_sigmoid_cast_fp16)[name = tensor("x_39_cast_fp16")]; - tensor input_79_cast_fp16 = select(a = var_21_to_fp16, b = x_39_cast_fp16, cond = var_245)[name = tensor("input_79_cast_fp16")]; + tensor x_39_split_cast_fp16_0, tensor x_39_split_cast_fp16_1 = split(axis = x_39_split_axis_0, num_splits = x_39_split_num_splits_0, x = input_77_cast_fp16)[name = tensor("x_39_split_cast_fp16")]; + tensor x_39_split_1_sigmoid_cast_fp16 = sigmoid(x = x_39_split_cast_fp16_1)[name = tensor("x_39_split_1_sigmoid_cast_fp16")]; + tensor x_39_cast_fp16 = mul(x = x_39_split_cast_fp16_0, y = x_39_split_1_sigmoid_cast_fp16)[name = tensor("x_39_cast_fp16")]; + tensor input_79_cast_fp16 = select(a = var_21_to_fp16, b = x_39_cast_fp16, cond = var_245)[name = tensor("input_79_cast_fp16")]; tensor input_81_pad_0 = const()[name = tensor("input_81_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_81_mode_0 = const()[name = tensor("input_81_mode_0"), val = tensor("constant")]; tensor const_25_to_fp16 = const()[name = tensor("const_25_to_fp16"), val = tensor(0x0p+0)]; - tensor input_81_cast_fp16 = pad(constant_val = const_25_to_fp16, mode = input_81_mode_0, pad = input_81_pad_0, x = input_79_cast_fp16)[name = tensor("input_81_cast_fp16")]; + tensor input_81_cast_fp16 = pad(constant_val = const_25_to_fp16, mode = input_81_mode_0, pad = input_81_pad_0, x = input_79_cast_fp16)[name = tensor("input_81_cast_fp16")]; tensor input_83_pad_type_0 = const()[name = tensor("input_83_pad_type_0"), val = tensor("valid")]; tensor input_83_groups_0 = const()[name = tensor("input_83_groups_0"), val = tensor(512)]; tensor input_83_strides_0 = const()[name = tensor("input_83_strides_0"), val = tensor([1])]; tensor input_83_pad_0 = const()[name = tensor("input_83_pad_0"), val = tensor([0, 0])]; tensor input_83_dilations_0 = const()[name = tensor("input_83_dilations_0"), val = tensor([1])]; - tensor const_344_to_fp16 = const()[name = tensor("const_344_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20451008)))]; - tensor const_345_to_fp16 = const()[name = tensor("const_345_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20460288)))]; - tensor input_85_cast_fp16 = conv(bias = const_345_to_fp16, dilations = input_83_dilations_0, groups = input_83_groups_0, pad = input_83_pad_0, pad_type = input_83_pad_type_0, strides = input_83_strides_0, weight = const_344_to_fp16, x = input_81_cast_fp16)[name = tensor("input_85_cast_fp16")]; - tensor input_87_cast_fp16 = silu(x = input_85_cast_fp16)[name = tensor("input_87_cast_fp16")]; + tensor const_344_to_fp16 = const()[name = tensor("const_344_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21057216)))]; + tensor const_345_to_fp16 = const()[name = tensor("const_345_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21066496)))]; + tensor input_85_cast_fp16 = conv(bias = const_345_to_fp16, dilations = input_83_dilations_0, groups = input_83_groups_0, pad = input_83_pad_0, pad_type = input_83_pad_type_0, strides = input_83_strides_0, weight = const_344_to_fp16, x = input_81_cast_fp16)[name = tensor("input_85_cast_fp16")]; + tensor input_87_cast_fp16 = silu(x = input_85_cast_fp16)[name = tensor("input_87_cast_fp16")]; tensor x_41_pad_type_0 = const()[name = tensor("x_41_pad_type_0"), val = tensor("valid")]; tensor x_41_strides_0 = const()[name = tensor("x_41_strides_0"), val = tensor([1])]; tensor x_41_pad_0 = const()[name = tensor("x_41_pad_0"), val = tensor([0, 0])]; tensor x_41_dilations_0 = const()[name = tensor("x_41_dilations_0"), val = tensor([1])]; tensor x_41_groups_0 = const()[name = tensor("x_41_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_1_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20461376)))]; - tensor model_encoder_layers_1_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20985728)))]; - tensor x_41_cast_fp16 = conv(bias = model_encoder_layers_1_conv_pointwise_conv2_bias_to_fp16, dilations = x_41_dilations_0, groups = x_41_groups_0, pad = x_41_pad_0, pad_type = x_41_pad_type_0, strides = x_41_strides_0, weight = model_encoder_layers_1_conv_pointwise_conv2_weight_to_fp16, x = input_87_cast_fp16)[name = tensor("x_41_cast_fp16")]; + tensor model_encoder_layers_1_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21067584)))]; + tensor model_encoder_layers_1_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21591936)))]; + tensor x_41_cast_fp16 = conv(bias = model_encoder_layers_1_conv_pointwise_conv2_bias_to_fp16, dilations = x_41_dilations_0, groups = x_41_groups_0, pad = x_41_pad_0, pad_type = x_41_pad_type_0, strides = x_41_strides_0, weight = model_encoder_layers_1_conv_pointwise_conv2_weight_to_fp16, x = input_87_cast_fp16)[name = tensor("x_41_cast_fp16")]; tensor input_89_perm_0 = const()[name = tensor("input_89_perm_0"), val = tensor([0, 2, 1])]; - tensor input_89_cast_fp16 = transpose(perm = input_89_perm_0, x = x_41_cast_fp16)[name = tensor("transpose_298")]; - tensor input_91_cast_fp16 = add(x = input_73_cast_fp16, y = input_89_cast_fp16)[name = tensor("input_91_cast_fp16")]; + tensor input_89_cast_fp16 = transpose(perm = input_89_perm_0, x = x_41_cast_fp16)[name = tensor("transpose_298")]; + tensor input_91_cast_fp16 = add(x = input_73_cast_fp16, y = input_89_cast_fp16)[name = tensor("input_91_cast_fp16")]; tensor input_93_axes_0 = const()[name = tensor("input_93_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_1_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20986816)))]; - tensor model_encoder_layers_1_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20987904)))]; - tensor input_93_cast_fp16 = layer_norm(axes = input_93_axes_0, beta = model_encoder_layers_1_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_feed_forward2_weight_to_fp16, x = input_91_cast_fp16)[name = tensor("input_93_cast_fp16")]; - tensor model_encoder_layers_1_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(20988992)))]; - tensor model_encoder_layers_1_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(23086208)))]; - tensor linear_16_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_1_feed_forward2_linear1_weight_to_fp16, x = input_93_cast_fp16)[name = tensor("linear_16_cast_fp16")]; - tensor input_97_cast_fp16 = silu(x = linear_16_cast_fp16)[name = tensor("input_97_cast_fp16")]; - tensor model_encoder_layers_1_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(23090368)))]; - tensor model_encoder_layers_1_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25187584)))]; - tensor linear_17_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_1_feed_forward2_linear2_weight_to_fp16, x = input_97_cast_fp16)[name = tensor("linear_17_cast_fp16")]; + tensor model_encoder_layers_1_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21593024)))]; + tensor model_encoder_layers_1_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21594112)))]; + tensor input_93_cast_fp16 = layer_norm(axes = input_93_axes_0, beta = model_encoder_layers_1_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_feed_forward2_weight_to_fp16, x = input_91_cast_fp16)[name = tensor("input_93_cast_fp16")]; + tensor model_encoder_layers_1_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(21595200)))]; + tensor model_encoder_layers_1_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(23692416)))]; + tensor linear_16_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_1_feed_forward2_linear1_weight_to_fp16, x = input_93_cast_fp16)[name = tensor("linear_16_cast_fp16")]; + tensor input_97_cast_fp16 = silu(x = linear_16_cast_fp16)[name = tensor("input_97_cast_fp16")]; + tensor model_encoder_layers_1_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(23696576)))]; + tensor model_encoder_layers_1_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25793792)))]; + tensor linear_17_cast_fp16 = linear(bias = model_encoder_layers_1_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_1_feed_forward2_linear2_weight_to_fp16, x = input_97_cast_fp16)[name = tensor("linear_17_cast_fp16")]; tensor var_461_to_fp16 = const()[name = tensor("op_461_to_fp16"), val = tensor(0x1p-1)]; - tensor var_462_cast_fp16 = mul(x = linear_17_cast_fp16, y = var_461_to_fp16)[name = tensor("op_462_cast_fp16")]; - tensor input_103_cast_fp16 = add(x = input_91_cast_fp16, y = var_462_cast_fp16)[name = tensor("input_103_cast_fp16")]; + tensor var_462_cast_fp16 = mul(x = linear_17_cast_fp16, y = var_461_to_fp16)[name = tensor("op_462_cast_fp16")]; + tensor input_103_cast_fp16 = add(x = input_91_cast_fp16, y = var_462_cast_fp16)[name = tensor("input_103_cast_fp16")]; tensor input_105_axes_0 = const()[name = tensor("input_105_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_1_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25188672)))]; - tensor model_encoder_layers_1_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25189760)))]; - tensor input_105_cast_fp16 = layer_norm(axes = input_105_axes_0, beta = model_encoder_layers_1_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_out_weight_to_fp16, x = input_103_cast_fp16)[name = tensor("input_105_cast_fp16")]; + tensor model_encoder_layers_1_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25794880)))]; + tensor model_encoder_layers_1_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_1_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25795968)))]; + tensor input_105_cast_fp16 = layer_norm(axes = input_105_axes_0, beta = model_encoder_layers_1_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_1_norm_out_weight_to_fp16, x = input_103_cast_fp16)[name = tensor("input_105_cast_fp16")]; tensor input_107_axes_0 = const()[name = tensor("input_107_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_2_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25190848)))]; - tensor model_encoder_layers_2_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25191936)))]; - tensor input_107_cast_fp16 = layer_norm(axes = input_107_axes_0, beta = model_encoder_layers_2_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_feed_forward1_weight_to_fp16, x = input_105_cast_fp16)[name = tensor("input_107_cast_fp16")]; - tensor model_encoder_layers_2_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25193024)))]; - tensor model_encoder_layers_2_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(27290240)))]; - tensor linear_18_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_2_feed_forward1_linear1_weight_to_fp16, x = input_107_cast_fp16)[name = tensor("linear_18_cast_fp16")]; - tensor input_111_cast_fp16 = silu(x = linear_18_cast_fp16)[name = tensor("input_111_cast_fp16")]; - tensor model_encoder_layers_2_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(27294400)))]; - tensor model_encoder_layers_2_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29391616)))]; - tensor linear_19_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_2_feed_forward1_linear2_weight_to_fp16, x = input_111_cast_fp16)[name = tensor("linear_19_cast_fp16")]; + tensor model_encoder_layers_2_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25797056)))]; + tensor model_encoder_layers_2_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25798144)))]; + tensor input_107_cast_fp16 = layer_norm(axes = input_107_axes_0, beta = model_encoder_layers_2_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_feed_forward1_weight_to_fp16, x = input_105_cast_fp16)[name = tensor("input_107_cast_fp16")]; + tensor model_encoder_layers_2_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(25799232)))]; + tensor model_encoder_layers_2_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(27896448)))]; + tensor linear_18_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_2_feed_forward1_linear1_weight_to_fp16, x = input_107_cast_fp16)[name = tensor("linear_18_cast_fp16")]; + tensor input_111_cast_fp16 = silu(x = linear_18_cast_fp16)[name = tensor("input_111_cast_fp16")]; + tensor model_encoder_layers_2_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(27900608)))]; + tensor model_encoder_layers_2_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29997824)))]; + tensor linear_19_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_2_feed_forward1_linear2_weight_to_fp16, x = input_111_cast_fp16)[name = tensor("linear_19_cast_fp16")]; tensor var_492_to_fp16 = const()[name = tensor("op_492_to_fp16"), val = tensor(0x1p-1)]; - tensor var_493_cast_fp16 = mul(x = linear_19_cast_fp16, y = var_492_to_fp16)[name = tensor("op_493_cast_fp16")]; - tensor input_117_cast_fp16 = add(x = input_105_cast_fp16, y = var_493_cast_fp16)[name = tensor("input_117_cast_fp16")]; + tensor var_493_cast_fp16 = mul(x = linear_19_cast_fp16, y = var_492_to_fp16)[name = tensor("op_493_cast_fp16")]; + tensor input_117_cast_fp16 = add(x = input_105_cast_fp16, y = var_493_cast_fp16)[name = tensor("input_117_cast_fp16")]; tensor query_5_axes_0 = const()[name = tensor("query_5_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_2_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29392704)))]; - tensor model_encoder_layers_2_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29393792)))]; - tensor query_5_cast_fp16 = layer_norm(axes = query_5_axes_0, beta = model_encoder_layers_2_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_self_att_weight_to_fp16, x = input_117_cast_fp16)[name = tensor("query_5_cast_fp16")]; - tensor model_encoder_layers_2_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29394880)))]; - tensor model_encoder_layers_2_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29919232)))]; - tensor linear_20_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_q_weight_to_fp16, x = query_5_cast_fp16)[name = tensor("linear_20_cast_fp16")]; + tensor model_encoder_layers_2_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29998912)))]; + tensor model_encoder_layers_2_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30000000)))]; + tensor query_5_cast_fp16 = layer_norm(axes = query_5_axes_0, beta = model_encoder_layers_2_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_self_att_weight_to_fp16, x = input_117_cast_fp16)[name = tensor("query_5_cast_fp16")]; + tensor model_encoder_layers_2_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30001088)))]; + tensor model_encoder_layers_2_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30525440)))]; + tensor linear_20_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_q_weight_to_fp16, x = query_5_cast_fp16)[name = tensor("linear_20_cast_fp16")]; tensor var_510 = const()[name = tensor("op_510"), val = tensor([1, -1, 8, 64])]; - tensor q_13_cast_fp16 = reshape(shape = var_510, x = linear_20_cast_fp16)[name = tensor("q_13_cast_fp16")]; - tensor model_encoder_layers_2_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(29920320)))]; - tensor model_encoder_layers_2_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30444672)))]; - tensor linear_21_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_k_weight_to_fp16, x = query_5_cast_fp16)[name = tensor("linear_21_cast_fp16")]; + tensor q_13_cast_fp16 = reshape(shape = var_510, x = linear_20_cast_fp16)[name = tensor("q_13_cast_fp16")]; + tensor model_encoder_layers_2_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30526528)))]; + tensor model_encoder_layers_2_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31050880)))]; + tensor linear_21_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_k_weight_to_fp16, x = query_5_cast_fp16)[name = tensor("linear_21_cast_fp16")]; tensor var_515 = const()[name = tensor("op_515"), val = tensor([1, -1, 8, 64])]; - tensor k_9_cast_fp16 = reshape(shape = var_515, x = linear_21_cast_fp16)[name = tensor("k_9_cast_fp16")]; - tensor model_encoder_layers_2_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30445760)))]; - tensor model_encoder_layers_2_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30970112)))]; - tensor linear_22_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_v_weight_to_fp16, x = query_5_cast_fp16)[name = tensor("linear_22_cast_fp16")]; + tensor k_9_cast_fp16 = reshape(shape = var_515, x = linear_21_cast_fp16)[name = tensor("k_9_cast_fp16")]; + tensor model_encoder_layers_2_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31051968)))]; + tensor model_encoder_layers_2_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31576320)))]; + tensor linear_22_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_v_weight_to_fp16, x = query_5_cast_fp16)[name = tensor("linear_22_cast_fp16")]; tensor var_520 = const()[name = tensor("op_520"), val = tensor([1, -1, 8, 64])]; - tensor v_5_cast_fp16 = reshape(shape = var_520, x = linear_22_cast_fp16)[name = tensor("v_5_cast_fp16")]; + tensor v_5_cast_fp16 = reshape(shape = var_520, x = linear_22_cast_fp16)[name = tensor("v_5_cast_fp16")]; tensor value_5_perm_0 = const()[name = tensor("value_5_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_2_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30971200)))]; - tensor var_532_cast_fp16 = add(x = q_13_cast_fp16, y = model_encoder_layers_2_self_attn_pos_bias_u_to_fp16)[name = tensor("op_532_cast_fp16")]; - tensor model_encoder_layers_2_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30972288)))]; - tensor var_534_cast_fp16 = add(x = q_13_cast_fp16, y = model_encoder_layers_2_self_attn_pos_bias_v_to_fp16)[name = tensor("op_534_cast_fp16")]; + tensor model_encoder_layers_2_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31577408)))]; + tensor var_532_cast_fp16 = add(x = q_13_cast_fp16, y = model_encoder_layers_2_self_attn_pos_bias_u_to_fp16)[name = tensor("op_532_cast_fp16")]; + tensor model_encoder_layers_2_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31578496)))]; + tensor var_534_cast_fp16 = add(x = q_13_cast_fp16, y = model_encoder_layers_2_self_attn_pos_bias_v_to_fp16)[name = tensor("op_534_cast_fp16")]; tensor q_with_bias_v_5_perm_0 = const()[name = tensor("q_with_bias_v_5_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_49_transpose_x_0 = const()[name = tensor("x_49_transpose_x_0"), val = tensor(false)]; tensor x_49_transpose_y_0 = const()[name = tensor("x_49_transpose_y_0"), val = tensor(false)]; - tensor var_536_to_fp16 = const()[name = tensor("op_536_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(30973376)))]; - tensor q_with_bias_v_5_cast_fp16 = transpose(perm = q_with_bias_v_5_perm_0, x = var_534_cast_fp16)[name = tensor("transpose_296")]; - tensor x_49_cast_fp16 = matmul(transpose_x = x_49_transpose_x_0, transpose_y = x_49_transpose_y_0, x = q_with_bias_v_5_cast_fp16, y = var_536_to_fp16)[name = tensor("x_49_cast_fp16")]; + tensor var_536_to_fp16 = const()[name = tensor("op_536_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31579584)))]; + tensor q_with_bias_v_5_cast_fp16 = transpose(perm = q_with_bias_v_5_perm_0, x = var_534_cast_fp16)[name = tensor("transpose_296")]; + tensor x_49_cast_fp16 = matmul(transpose_x = x_49_transpose_x_0, transpose_y = x_49_transpose_y_0, x = q_with_bias_v_5_cast_fp16, y = var_536_to_fp16)[name = tensor("x_49_cast_fp16")]; tensor x_51_pad_0 = const()[name = tensor("x_51_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_51_mode_0 = const()[name = tensor("x_51_mode_0"), val = tensor("constant")]; tensor const_32_to_fp16 = const()[name = tensor("const_32_to_fp16"), val = tensor(0x0p+0)]; - tensor x_51_cast_fp16 = pad(constant_val = const_32_to_fp16, mode = x_51_mode_0, pad = x_51_pad_0, x = x_49_cast_fp16)[name = tensor("x_51_cast_fp16")]; - tensor var_544 = const()[name = tensor("op_544"), val = tensor([1, 8, -1, 242])]; - tensor x_53_cast_fp16 = reshape(shape = var_544, x = x_51_cast_fp16)[name = tensor("x_53_cast_fp16")]; + tensor x_51_cast_fp16 = pad(constant_val = const_32_to_fp16, mode = x_51_mode_0, pad = x_51_pad_0, x = x_49_cast_fp16)[name = tensor("x_51_cast_fp16")]; + tensor var_544 = const()[name = tensor("op_544"), val = tensor([1, 8, -1, 390])]; + tensor x_53_cast_fp16 = reshape(shape = var_544, x = x_51_cast_fp16)[name = tensor("x_53_cast_fp16")]; tensor var_548_begin_0 = const()[name = tensor("op_548_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_548_end_0 = const()[name = tensor("op_548_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_548_end_0 = const()[name = tensor("op_548_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_548_end_mask_0 = const()[name = tensor("op_548_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_548_cast_fp16 = slice_by_index(begin = var_548_begin_0, end = var_548_end_0, end_mask = var_548_end_mask_0, x = x_53_cast_fp16)[name = tensor("op_548_cast_fp16")]; - tensor var_549 = const()[name = tensor("op_549"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_9_cast_fp16 = reshape(shape = var_549, x = var_548_cast_fp16)[name = tensor("matrix_bd_9_cast_fp16")]; + tensor var_548_cast_fp16 = slice_by_index(begin = var_548_begin_0, end = var_548_end_0, end_mask = var_548_end_mask_0, x = x_53_cast_fp16)[name = tensor("op_548_cast_fp16")]; + tensor var_549 = const()[name = tensor("op_549"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_9_cast_fp16 = reshape(shape = var_549, x = var_548_cast_fp16)[name = tensor("matrix_bd_9_cast_fp16")]; tensor matrix_ac_5_transpose_x_0 = const()[name = tensor("matrix_ac_5_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_5_transpose_y_0 = const()[name = tensor("matrix_ac_5_transpose_y_0"), val = tensor(false)]; tensor transpose_55_perm_0 = const()[name = tensor("transpose_55_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_56_perm_0 = const()[name = tensor("transpose_56_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_56 = transpose(perm = transpose_56_perm_0, x = k_9_cast_fp16)[name = tensor("transpose_294")]; - tensor transpose_55 = transpose(perm = transpose_55_perm_0, x = var_532_cast_fp16)[name = tensor("transpose_295")]; - tensor matrix_ac_5_cast_fp16 = matmul(transpose_x = matrix_ac_5_transpose_x_0, transpose_y = matrix_ac_5_transpose_y_0, x = transpose_55, y = transpose_56)[name = tensor("matrix_ac_5_cast_fp16")]; + tensor transpose_56 = transpose(perm = transpose_56_perm_0, x = k_9_cast_fp16)[name = tensor("transpose_294")]; + tensor transpose_55 = transpose(perm = transpose_55_perm_0, x = var_532_cast_fp16)[name = tensor("transpose_295")]; + tensor matrix_ac_5_cast_fp16 = matmul(transpose_x = matrix_ac_5_transpose_x_0, transpose_y = matrix_ac_5_transpose_y_0, x = transpose_55, y = transpose_56)[name = tensor("matrix_ac_5_cast_fp16")]; tensor matrix_bd_11_begin_0 = const()[name = tensor("matrix_bd_11_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_11_end_0 = const()[name = tensor("matrix_bd_11_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_11_end_0 = const()[name = tensor("matrix_bd_11_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_11_end_mask_0 = const()[name = tensor("matrix_bd_11_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_11_cast_fp16 = slice_by_index(begin = matrix_bd_11_begin_0, end = matrix_bd_11_end_0, end_mask = matrix_bd_11_end_mask_0, x = matrix_bd_9_cast_fp16)[name = tensor("matrix_bd_11_cast_fp16")]; - tensor var_558_cast_fp16 = add(x = matrix_ac_5_cast_fp16, y = matrix_bd_11_cast_fp16)[name = tensor("op_558_cast_fp16")]; + tensor matrix_bd_11_cast_fp16 = slice_by_index(begin = matrix_bd_11_begin_0, end = matrix_bd_11_end_0, end_mask = matrix_bd_11_end_mask_0, x = matrix_bd_9_cast_fp16)[name = tensor("matrix_bd_11_cast_fp16")]; + tensor var_558_cast_fp16 = add(x = matrix_ac_5_cast_fp16, y = matrix_bd_11_cast_fp16)[name = tensor("op_558_cast_fp16")]; tensor _inversed_scores_9_y_0_to_fp16 = const()[name = tensor("_inversed_scores_9_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_9_cast_fp16 = mul(x = var_558_cast_fp16, y = _inversed_scores_9_y_0_to_fp16)[name = tensor("_inversed_scores_9_cast_fp16")]; - tensor scores_11_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_9_cast_fp16, cond = mask_3)[name = tensor("scores_11_cast_fp16")]; - tensor var_564_cast_fp16 = softmax(axis = var_30, x = scores_11_cast_fp16)[name = tensor("op_564_cast_fp16")]; - tensor input_119_cast_fp16 = select(a = var_21_to_fp16, b = var_564_cast_fp16, cond = mask_3)[name = tensor("input_119_cast_fp16")]; + tensor _inversed_scores_9_cast_fp16 = mul(x = var_558_cast_fp16, y = _inversed_scores_9_y_0_to_fp16)[name = tensor("_inversed_scores_9_cast_fp16")]; + tensor scores_11_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_9_cast_fp16, cond = mask_3)[name = tensor("scores_11_cast_fp16")]; + tensor var_564_cast_fp16 = softmax(axis = var_30, x = scores_11_cast_fp16)[name = tensor("op_564_cast_fp16")]; + tensor input_119_cast_fp16 = select(a = var_21_to_fp16, b = var_564_cast_fp16, cond = mask_3)[name = tensor("input_119_cast_fp16")]; tensor x_55_transpose_x_0 = const()[name = tensor("x_55_transpose_x_0"), val = tensor(false)]; tensor x_55_transpose_y_0 = const()[name = tensor("x_55_transpose_y_0"), val = tensor(false)]; - tensor value_5_cast_fp16 = transpose(perm = value_5_perm_0, x = v_5_cast_fp16)[name = tensor("transpose_297")]; - tensor x_55_cast_fp16 = matmul(transpose_x = x_55_transpose_x_0, transpose_y = x_55_transpose_y_0, x = input_119_cast_fp16, y = value_5_cast_fp16)[name = tensor("x_55_cast_fp16")]; + tensor value_5_cast_fp16 = transpose(perm = value_5_perm_0, x = v_5_cast_fp16)[name = tensor("transpose_297")]; + tensor x_55_cast_fp16 = matmul(transpose_x = x_55_transpose_x_0, transpose_y = x_55_transpose_y_0, x = input_119_cast_fp16, y = value_5_cast_fp16)[name = tensor("x_55_cast_fp16")]; tensor var_568_perm_0 = const()[name = tensor("op_568_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_569 = const()[name = tensor("op_569"), val = tensor([1, -1, 512])]; - tensor var_568_cast_fp16 = transpose(perm = var_568_perm_0, x = x_55_cast_fp16)[name = tensor("transpose_293")]; - tensor input_121_cast_fp16 = reshape(shape = var_569, x = var_568_cast_fp16)[name = tensor("input_121_cast_fp16")]; - tensor model_encoder_layers_2_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31468032)))]; - tensor model_encoder_layers_2_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31992384)))]; - tensor linear_24_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_out_weight_to_fp16, x = input_121_cast_fp16)[name = tensor("linear_24_cast_fp16")]; - tensor input_125_cast_fp16 = add(x = input_117_cast_fp16, y = linear_24_cast_fp16)[name = tensor("input_125_cast_fp16")]; + tensor var_568_cast_fp16 = transpose(perm = var_568_perm_0, x = x_55_cast_fp16)[name = tensor("transpose_293")]; + tensor input_121_cast_fp16 = reshape(shape = var_569, x = var_568_cast_fp16)[name = tensor("input_121_cast_fp16")]; + tensor model_encoder_layers_2_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(32377344)))]; + tensor model_encoder_layers_2_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(32901696)))]; + tensor linear_24_cast_fp16 = linear(bias = model_encoder_layers_2_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_2_self_attn_linear_out_weight_to_fp16, x = input_121_cast_fp16)[name = tensor("linear_24_cast_fp16")]; + tensor input_125_cast_fp16 = add(x = input_117_cast_fp16, y = linear_24_cast_fp16)[name = tensor("input_125_cast_fp16")]; tensor x_59_axes_0 = const()[name = tensor("x_59_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_2_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31993472)))]; - tensor model_encoder_layers_2_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31994560)))]; - tensor x_59_cast_fp16 = layer_norm(axes = x_59_axes_0, beta = model_encoder_layers_2_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_conv_weight_to_fp16, x = input_125_cast_fp16)[name = tensor("x_59_cast_fp16")]; + tensor model_encoder_layers_2_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(32902784)))]; + tensor model_encoder_layers_2_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(32903872)))]; + tensor x_59_cast_fp16 = layer_norm(axes = x_59_axes_0, beta = model_encoder_layers_2_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_conv_weight_to_fp16, x = input_125_cast_fp16)[name = tensor("x_59_cast_fp16")]; tensor input_127_perm_0 = const()[name = tensor("input_127_perm_0"), val = tensor([0, 2, 1])]; tensor input_129_pad_type_0 = const()[name = tensor("input_129_pad_type_0"), val = tensor("valid")]; tensor input_129_strides_0 = const()[name = tensor("input_129_strides_0"), val = tensor([1])]; tensor input_129_pad_0 = const()[name = tensor("input_129_pad_0"), val = tensor([0, 0])]; tensor input_129_dilations_0 = const()[name = tensor("input_129_dilations_0"), val = tensor([1])]; tensor input_129_groups_0 = const()[name = tensor("input_129_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_2_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(31995648)))]; - tensor model_encoder_layers_2_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33044288)))]; - tensor input_127_cast_fp16 = transpose(perm = input_127_perm_0, x = x_59_cast_fp16)[name = tensor("transpose_292")]; - tensor input_129_cast_fp16 = conv(bias = model_encoder_layers_2_conv_pointwise_conv1_bias_to_fp16, dilations = input_129_dilations_0, groups = input_129_groups_0, pad = input_129_pad_0, pad_type = input_129_pad_type_0, strides = input_129_strides_0, weight = model_encoder_layers_2_conv_pointwise_conv1_weight_to_fp16, x = input_127_cast_fp16)[name = tensor("input_129_cast_fp16")]; + tensor model_encoder_layers_2_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(32904960)))]; + tensor model_encoder_layers_2_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33953600)))]; + tensor input_127_cast_fp16 = transpose(perm = input_127_perm_0, x = x_59_cast_fp16)[name = tensor("transpose_292")]; + tensor input_129_cast_fp16 = conv(bias = model_encoder_layers_2_conv_pointwise_conv1_bias_to_fp16, dilations = input_129_dilations_0, groups = input_129_groups_0, pad = input_129_pad_0, pad_type = input_129_pad_type_0, strides = input_129_strides_0, weight = model_encoder_layers_2_conv_pointwise_conv1_weight_to_fp16, x = input_127_cast_fp16)[name = tensor("input_129_cast_fp16")]; tensor x_61_split_num_splits_0 = const()[name = tensor("x_61_split_num_splits_0"), val = tensor(2)]; tensor x_61_split_axis_0 = const()[name = tensor("x_61_split_axis_0"), val = tensor(1)]; - tensor x_61_split_cast_fp16_0, tensor x_61_split_cast_fp16_1 = split(axis = x_61_split_axis_0, num_splits = x_61_split_num_splits_0, x = input_129_cast_fp16)[name = tensor("x_61_split_cast_fp16")]; - tensor x_61_split_1_sigmoid_cast_fp16 = sigmoid(x = x_61_split_cast_fp16_1)[name = tensor("x_61_split_1_sigmoid_cast_fp16")]; - tensor x_61_cast_fp16 = mul(x = x_61_split_cast_fp16_0, y = x_61_split_1_sigmoid_cast_fp16)[name = tensor("x_61_cast_fp16")]; - tensor input_131_cast_fp16 = select(a = var_21_to_fp16, b = x_61_cast_fp16, cond = var_245)[name = tensor("input_131_cast_fp16")]; + tensor x_61_split_cast_fp16_0, tensor x_61_split_cast_fp16_1 = split(axis = x_61_split_axis_0, num_splits = x_61_split_num_splits_0, x = input_129_cast_fp16)[name = tensor("x_61_split_cast_fp16")]; + tensor x_61_split_1_sigmoid_cast_fp16 = sigmoid(x = x_61_split_cast_fp16_1)[name = tensor("x_61_split_1_sigmoid_cast_fp16")]; + tensor x_61_cast_fp16 = mul(x = x_61_split_cast_fp16_0, y = x_61_split_1_sigmoid_cast_fp16)[name = tensor("x_61_cast_fp16")]; + tensor input_131_cast_fp16 = select(a = var_21_to_fp16, b = x_61_cast_fp16, cond = var_245)[name = tensor("input_131_cast_fp16")]; tensor input_133_pad_0 = const()[name = tensor("input_133_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_133_mode_0 = const()[name = tensor("input_133_mode_0"), val = tensor("constant")]; tensor const_35_to_fp16 = const()[name = tensor("const_35_to_fp16"), val = tensor(0x0p+0)]; - tensor input_133_cast_fp16 = pad(constant_val = const_35_to_fp16, mode = input_133_mode_0, pad = input_133_pad_0, x = input_131_cast_fp16)[name = tensor("input_133_cast_fp16")]; + tensor input_133_cast_fp16 = pad(constant_val = const_35_to_fp16, mode = input_133_mode_0, pad = input_133_pad_0, x = input_131_cast_fp16)[name = tensor("input_133_cast_fp16")]; tensor input_135_pad_type_0 = const()[name = tensor("input_135_pad_type_0"), val = tensor("valid")]; tensor input_135_groups_0 = const()[name = tensor("input_135_groups_0"), val = tensor(512)]; tensor input_135_strides_0 = const()[name = tensor("input_135_strides_0"), val = tensor([1])]; tensor input_135_pad_0 = const()[name = tensor("input_135_pad_0"), val = tensor([0, 0])]; tensor input_135_dilations_0 = const()[name = tensor("input_135_dilations_0"), val = tensor([1])]; - tensor const_346_to_fp16 = const()[name = tensor("const_346_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33046400)))]; - tensor const_347_to_fp16 = const()[name = tensor("const_347_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33055680)))]; - tensor input_137_cast_fp16 = conv(bias = const_347_to_fp16, dilations = input_135_dilations_0, groups = input_135_groups_0, pad = input_135_pad_0, pad_type = input_135_pad_type_0, strides = input_135_strides_0, weight = const_346_to_fp16, x = input_133_cast_fp16)[name = tensor("input_137_cast_fp16")]; - tensor input_139_cast_fp16 = silu(x = input_137_cast_fp16)[name = tensor("input_139_cast_fp16")]; + tensor const_346_to_fp16 = const()[name = tensor("const_346_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33955712)))]; + tensor const_347_to_fp16 = const()[name = tensor("const_347_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33964992)))]; + tensor input_137_cast_fp16 = conv(bias = const_347_to_fp16, dilations = input_135_dilations_0, groups = input_135_groups_0, pad = input_135_pad_0, pad_type = input_135_pad_type_0, strides = input_135_strides_0, weight = const_346_to_fp16, x = input_133_cast_fp16)[name = tensor("input_137_cast_fp16")]; + tensor input_139_cast_fp16 = silu(x = input_137_cast_fp16)[name = tensor("input_139_cast_fp16")]; tensor x_63_pad_type_0 = const()[name = tensor("x_63_pad_type_0"), val = tensor("valid")]; tensor x_63_strides_0 = const()[name = tensor("x_63_strides_0"), val = tensor([1])]; tensor x_63_pad_0 = const()[name = tensor("x_63_pad_0"), val = tensor([0, 0])]; tensor x_63_dilations_0 = const()[name = tensor("x_63_dilations_0"), val = tensor([1])]; tensor x_63_groups_0 = const()[name = tensor("x_63_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_2_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33056768)))]; - tensor model_encoder_layers_2_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33581120)))]; - tensor x_63_cast_fp16 = conv(bias = model_encoder_layers_2_conv_pointwise_conv2_bias_to_fp16, dilations = x_63_dilations_0, groups = x_63_groups_0, pad = x_63_pad_0, pad_type = x_63_pad_type_0, strides = x_63_strides_0, weight = model_encoder_layers_2_conv_pointwise_conv2_weight_to_fp16, x = input_139_cast_fp16)[name = tensor("x_63_cast_fp16")]; + tensor model_encoder_layers_2_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33966080)))]; + tensor model_encoder_layers_2_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(34490432)))]; + tensor x_63_cast_fp16 = conv(bias = model_encoder_layers_2_conv_pointwise_conv2_bias_to_fp16, dilations = x_63_dilations_0, groups = x_63_groups_0, pad = x_63_pad_0, pad_type = x_63_pad_type_0, strides = x_63_strides_0, weight = model_encoder_layers_2_conv_pointwise_conv2_weight_to_fp16, x = input_139_cast_fp16)[name = tensor("x_63_cast_fp16")]; tensor input_141_perm_0 = const()[name = tensor("input_141_perm_0"), val = tensor([0, 2, 1])]; - tensor input_141_cast_fp16 = transpose(perm = input_141_perm_0, x = x_63_cast_fp16)[name = tensor("transpose_291")]; - tensor input_143_cast_fp16 = add(x = input_125_cast_fp16, y = input_141_cast_fp16)[name = tensor("input_143_cast_fp16")]; + tensor input_141_cast_fp16 = transpose(perm = input_141_perm_0, x = x_63_cast_fp16)[name = tensor("transpose_291")]; + tensor input_143_cast_fp16 = add(x = input_125_cast_fp16, y = input_141_cast_fp16)[name = tensor("input_143_cast_fp16")]; tensor input_145_axes_0 = const()[name = tensor("input_145_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_2_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33582208)))]; - tensor model_encoder_layers_2_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33583296)))]; - tensor input_145_cast_fp16 = layer_norm(axes = input_145_axes_0, beta = model_encoder_layers_2_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_feed_forward2_weight_to_fp16, x = input_143_cast_fp16)[name = tensor("input_145_cast_fp16")]; - tensor model_encoder_layers_2_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(33584384)))]; - tensor model_encoder_layers_2_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(35681600)))]; - tensor linear_25_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_2_feed_forward2_linear1_weight_to_fp16, x = input_145_cast_fp16)[name = tensor("linear_25_cast_fp16")]; - tensor input_149_cast_fp16 = silu(x = linear_25_cast_fp16)[name = tensor("input_149_cast_fp16")]; - tensor model_encoder_layers_2_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(35685760)))]; - tensor model_encoder_layers_2_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(37782976)))]; - tensor linear_26_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_2_feed_forward2_linear2_weight_to_fp16, x = input_149_cast_fp16)[name = tensor("linear_26_cast_fp16")]; + tensor model_encoder_layers_2_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(34491520)))]; + tensor model_encoder_layers_2_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(34492608)))]; + tensor input_145_cast_fp16 = layer_norm(axes = input_145_axes_0, beta = model_encoder_layers_2_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_feed_forward2_weight_to_fp16, x = input_143_cast_fp16)[name = tensor("input_145_cast_fp16")]; + tensor model_encoder_layers_2_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(34493696)))]; + tensor model_encoder_layers_2_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(36590912)))]; + tensor linear_25_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_2_feed_forward2_linear1_weight_to_fp16, x = input_145_cast_fp16)[name = tensor("linear_25_cast_fp16")]; + tensor input_149_cast_fp16 = silu(x = linear_25_cast_fp16)[name = tensor("input_149_cast_fp16")]; + tensor model_encoder_layers_2_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(36595072)))]; + tensor model_encoder_layers_2_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(38692288)))]; + tensor linear_26_cast_fp16 = linear(bias = model_encoder_layers_2_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_2_feed_forward2_linear2_weight_to_fp16, x = input_149_cast_fp16)[name = tensor("linear_26_cast_fp16")]; tensor var_635_to_fp16 = const()[name = tensor("op_635_to_fp16"), val = tensor(0x1p-1)]; - tensor var_636_cast_fp16 = mul(x = linear_26_cast_fp16, y = var_635_to_fp16)[name = tensor("op_636_cast_fp16")]; - tensor input_155_cast_fp16 = add(x = input_143_cast_fp16, y = var_636_cast_fp16)[name = tensor("input_155_cast_fp16")]; + tensor var_636_cast_fp16 = mul(x = linear_26_cast_fp16, y = var_635_to_fp16)[name = tensor("op_636_cast_fp16")]; + tensor input_155_cast_fp16 = add(x = input_143_cast_fp16, y = var_636_cast_fp16)[name = tensor("input_155_cast_fp16")]; tensor input_157_axes_0 = const()[name = tensor("input_157_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_2_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(37784064)))]; - tensor model_encoder_layers_2_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(37785152)))]; - tensor input_157_cast_fp16 = layer_norm(axes = input_157_axes_0, beta = model_encoder_layers_2_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_out_weight_to_fp16, x = input_155_cast_fp16)[name = tensor("input_157_cast_fp16")]; + tensor model_encoder_layers_2_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(38693376)))]; + tensor model_encoder_layers_2_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_2_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(38694464)))]; + tensor input_157_cast_fp16 = layer_norm(axes = input_157_axes_0, beta = model_encoder_layers_2_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_2_norm_out_weight_to_fp16, x = input_155_cast_fp16)[name = tensor("input_157_cast_fp16")]; tensor input_159_axes_0 = const()[name = tensor("input_159_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_3_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(37786240)))]; - tensor model_encoder_layers_3_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(37787328)))]; - tensor input_159_cast_fp16 = layer_norm(axes = input_159_axes_0, beta = model_encoder_layers_3_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_feed_forward1_weight_to_fp16, x = input_157_cast_fp16)[name = tensor("input_159_cast_fp16")]; - tensor model_encoder_layers_3_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(37788416)))]; - tensor model_encoder_layers_3_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(39885632)))]; - tensor linear_27_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_3_feed_forward1_linear1_weight_to_fp16, x = input_159_cast_fp16)[name = tensor("linear_27_cast_fp16")]; - tensor input_163_cast_fp16 = silu(x = linear_27_cast_fp16)[name = tensor("input_163_cast_fp16")]; - tensor model_encoder_layers_3_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(39889792)))]; - tensor model_encoder_layers_3_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(41987008)))]; - tensor linear_28_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_3_feed_forward1_linear2_weight_to_fp16, x = input_163_cast_fp16)[name = tensor("linear_28_cast_fp16")]; + tensor model_encoder_layers_3_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(38695552)))]; + tensor model_encoder_layers_3_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(38696640)))]; + tensor input_159_cast_fp16 = layer_norm(axes = input_159_axes_0, beta = model_encoder_layers_3_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_feed_forward1_weight_to_fp16, x = input_157_cast_fp16)[name = tensor("input_159_cast_fp16")]; + tensor model_encoder_layers_3_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(38697728)))]; + tensor model_encoder_layers_3_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(40794944)))]; + tensor linear_27_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_3_feed_forward1_linear1_weight_to_fp16, x = input_159_cast_fp16)[name = tensor("linear_27_cast_fp16")]; + tensor input_163_cast_fp16 = silu(x = linear_27_cast_fp16)[name = tensor("input_163_cast_fp16")]; + tensor model_encoder_layers_3_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(40799104)))]; + tensor model_encoder_layers_3_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(42896320)))]; + tensor linear_28_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_3_feed_forward1_linear2_weight_to_fp16, x = input_163_cast_fp16)[name = tensor("linear_28_cast_fp16")]; tensor var_666_to_fp16 = const()[name = tensor("op_666_to_fp16"), val = tensor(0x1p-1)]; - tensor var_667_cast_fp16 = mul(x = linear_28_cast_fp16, y = var_666_to_fp16)[name = tensor("op_667_cast_fp16")]; - tensor input_169_cast_fp16 = add(x = input_157_cast_fp16, y = var_667_cast_fp16)[name = tensor("input_169_cast_fp16")]; + tensor var_667_cast_fp16 = mul(x = linear_28_cast_fp16, y = var_666_to_fp16)[name = tensor("op_667_cast_fp16")]; + tensor input_169_cast_fp16 = add(x = input_157_cast_fp16, y = var_667_cast_fp16)[name = tensor("input_169_cast_fp16")]; tensor query_7_axes_0 = const()[name = tensor("query_7_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_3_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(41988096)))]; - tensor model_encoder_layers_3_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(41989184)))]; - tensor query_7_cast_fp16 = layer_norm(axes = query_7_axes_0, beta = model_encoder_layers_3_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_self_att_weight_to_fp16, x = input_169_cast_fp16)[name = tensor("query_7_cast_fp16")]; - tensor model_encoder_layers_3_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(41990272)))]; - tensor model_encoder_layers_3_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(42514624)))]; - tensor linear_29_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_q_weight_to_fp16, x = query_7_cast_fp16)[name = tensor("linear_29_cast_fp16")]; + tensor model_encoder_layers_3_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(42897408)))]; + tensor model_encoder_layers_3_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(42898496)))]; + tensor query_7_cast_fp16 = layer_norm(axes = query_7_axes_0, beta = model_encoder_layers_3_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_self_att_weight_to_fp16, x = input_169_cast_fp16)[name = tensor("query_7_cast_fp16")]; + tensor model_encoder_layers_3_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(42899584)))]; + tensor model_encoder_layers_3_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43423936)))]; + tensor linear_29_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_q_weight_to_fp16, x = query_7_cast_fp16)[name = tensor("linear_29_cast_fp16")]; tensor var_684 = const()[name = tensor("op_684"), val = tensor([1, -1, 8, 64])]; - tensor q_19_cast_fp16 = reshape(shape = var_684, x = linear_29_cast_fp16)[name = tensor("q_19_cast_fp16")]; - tensor model_encoder_layers_3_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(42515712)))]; - tensor model_encoder_layers_3_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43040064)))]; - tensor linear_30_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_k_weight_to_fp16, x = query_7_cast_fp16)[name = tensor("linear_30_cast_fp16")]; + tensor q_19_cast_fp16 = reshape(shape = var_684, x = linear_29_cast_fp16)[name = tensor("q_19_cast_fp16")]; + tensor model_encoder_layers_3_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43425024)))]; + tensor model_encoder_layers_3_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43949376)))]; + tensor linear_30_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_k_weight_to_fp16, x = query_7_cast_fp16)[name = tensor("linear_30_cast_fp16")]; tensor var_689 = const()[name = tensor("op_689"), val = tensor([1, -1, 8, 64])]; - tensor k_13_cast_fp16 = reshape(shape = var_689, x = linear_30_cast_fp16)[name = tensor("k_13_cast_fp16")]; - tensor model_encoder_layers_3_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43041152)))]; - tensor model_encoder_layers_3_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43565504)))]; - tensor linear_31_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_v_weight_to_fp16, x = query_7_cast_fp16)[name = tensor("linear_31_cast_fp16")]; + tensor k_13_cast_fp16 = reshape(shape = var_689, x = linear_30_cast_fp16)[name = tensor("k_13_cast_fp16")]; + tensor model_encoder_layers_3_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43950464)))]; + tensor model_encoder_layers_3_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44474816)))]; + tensor linear_31_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_v_weight_to_fp16, x = query_7_cast_fp16)[name = tensor("linear_31_cast_fp16")]; tensor var_694 = const()[name = tensor("op_694"), val = tensor([1, -1, 8, 64])]; - tensor v_7_cast_fp16 = reshape(shape = var_694, x = linear_31_cast_fp16)[name = tensor("v_7_cast_fp16")]; + tensor v_7_cast_fp16 = reshape(shape = var_694, x = linear_31_cast_fp16)[name = tensor("v_7_cast_fp16")]; tensor value_7_perm_0 = const()[name = tensor("value_7_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_3_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43566592)))]; - tensor var_706_cast_fp16 = add(x = q_19_cast_fp16, y = model_encoder_layers_3_self_attn_pos_bias_u_to_fp16)[name = tensor("op_706_cast_fp16")]; - tensor model_encoder_layers_3_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43567680)))]; - tensor var_708_cast_fp16 = add(x = q_19_cast_fp16, y = model_encoder_layers_3_self_attn_pos_bias_v_to_fp16)[name = tensor("op_708_cast_fp16")]; + tensor model_encoder_layers_3_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44475904)))]; + tensor var_706_cast_fp16 = add(x = q_19_cast_fp16, y = model_encoder_layers_3_self_attn_pos_bias_u_to_fp16)[name = tensor("op_706_cast_fp16")]; + tensor model_encoder_layers_3_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44476992)))]; + tensor var_708_cast_fp16 = add(x = q_19_cast_fp16, y = model_encoder_layers_3_self_attn_pos_bias_v_to_fp16)[name = tensor("op_708_cast_fp16")]; tensor q_with_bias_v_7_perm_0 = const()[name = tensor("q_with_bias_v_7_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_71_transpose_x_0 = const()[name = tensor("x_71_transpose_x_0"), val = tensor(false)]; tensor x_71_transpose_y_0 = const()[name = tensor("x_71_transpose_y_0"), val = tensor(false)]; - tensor var_710_to_fp16 = const()[name = tensor("op_710_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(43568768)))]; - tensor q_with_bias_v_7_cast_fp16 = transpose(perm = q_with_bias_v_7_perm_0, x = var_708_cast_fp16)[name = tensor("transpose_289")]; - tensor x_71_cast_fp16 = matmul(transpose_x = x_71_transpose_x_0, transpose_y = x_71_transpose_y_0, x = q_with_bias_v_7_cast_fp16, y = var_710_to_fp16)[name = tensor("x_71_cast_fp16")]; + tensor var_710_to_fp16 = const()[name = tensor("op_710_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44478080)))]; + tensor q_with_bias_v_7_cast_fp16 = transpose(perm = q_with_bias_v_7_perm_0, x = var_708_cast_fp16)[name = tensor("transpose_289")]; + tensor x_71_cast_fp16 = matmul(transpose_x = x_71_transpose_x_0, transpose_y = x_71_transpose_y_0, x = q_with_bias_v_7_cast_fp16, y = var_710_to_fp16)[name = tensor("x_71_cast_fp16")]; tensor x_73_pad_0 = const()[name = tensor("x_73_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_73_mode_0 = const()[name = tensor("x_73_mode_0"), val = tensor("constant")]; tensor const_42_to_fp16 = const()[name = tensor("const_42_to_fp16"), val = tensor(0x0p+0)]; - tensor x_73_cast_fp16 = pad(constant_val = const_42_to_fp16, mode = x_73_mode_0, pad = x_73_pad_0, x = x_71_cast_fp16)[name = tensor("x_73_cast_fp16")]; - tensor var_718 = const()[name = tensor("op_718"), val = tensor([1, 8, -1, 242])]; - tensor x_75_cast_fp16 = reshape(shape = var_718, x = x_73_cast_fp16)[name = tensor("x_75_cast_fp16")]; + tensor x_73_cast_fp16 = pad(constant_val = const_42_to_fp16, mode = x_73_mode_0, pad = x_73_pad_0, x = x_71_cast_fp16)[name = tensor("x_73_cast_fp16")]; + tensor var_718 = const()[name = tensor("op_718"), val = tensor([1, 8, -1, 390])]; + tensor x_75_cast_fp16 = reshape(shape = var_718, x = x_73_cast_fp16)[name = tensor("x_75_cast_fp16")]; tensor var_722_begin_0 = const()[name = tensor("op_722_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_722_end_0 = const()[name = tensor("op_722_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_722_end_0 = const()[name = tensor("op_722_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_722_end_mask_0 = const()[name = tensor("op_722_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_722_cast_fp16 = slice_by_index(begin = var_722_begin_0, end = var_722_end_0, end_mask = var_722_end_mask_0, x = x_75_cast_fp16)[name = tensor("op_722_cast_fp16")]; - tensor var_723 = const()[name = tensor("op_723"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_13_cast_fp16 = reshape(shape = var_723, x = var_722_cast_fp16)[name = tensor("matrix_bd_13_cast_fp16")]; + tensor var_722_cast_fp16 = slice_by_index(begin = var_722_begin_0, end = var_722_end_0, end_mask = var_722_end_mask_0, x = x_75_cast_fp16)[name = tensor("op_722_cast_fp16")]; + tensor var_723 = const()[name = tensor("op_723"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_13_cast_fp16 = reshape(shape = var_723, x = var_722_cast_fp16)[name = tensor("matrix_bd_13_cast_fp16")]; tensor matrix_ac_7_transpose_x_0 = const()[name = tensor("matrix_ac_7_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_7_transpose_y_0 = const()[name = tensor("matrix_ac_7_transpose_y_0"), val = tensor(false)]; tensor transpose_57_perm_0 = const()[name = tensor("transpose_57_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_58_perm_0 = const()[name = tensor("transpose_58_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_58 = transpose(perm = transpose_58_perm_0, x = k_13_cast_fp16)[name = tensor("transpose_287")]; - tensor transpose_57 = transpose(perm = transpose_57_perm_0, x = var_706_cast_fp16)[name = tensor("transpose_288")]; - tensor matrix_ac_7_cast_fp16 = matmul(transpose_x = matrix_ac_7_transpose_x_0, transpose_y = matrix_ac_7_transpose_y_0, x = transpose_57, y = transpose_58)[name = tensor("matrix_ac_7_cast_fp16")]; + tensor transpose_58 = transpose(perm = transpose_58_perm_0, x = k_13_cast_fp16)[name = tensor("transpose_287")]; + tensor transpose_57 = transpose(perm = transpose_57_perm_0, x = var_706_cast_fp16)[name = tensor("transpose_288")]; + tensor matrix_ac_7_cast_fp16 = matmul(transpose_x = matrix_ac_7_transpose_x_0, transpose_y = matrix_ac_7_transpose_y_0, x = transpose_57, y = transpose_58)[name = tensor("matrix_ac_7_cast_fp16")]; tensor matrix_bd_15_begin_0 = const()[name = tensor("matrix_bd_15_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_15_end_0 = const()[name = tensor("matrix_bd_15_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_15_end_0 = const()[name = tensor("matrix_bd_15_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_15_end_mask_0 = const()[name = tensor("matrix_bd_15_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_15_cast_fp16 = slice_by_index(begin = matrix_bd_15_begin_0, end = matrix_bd_15_end_0, end_mask = matrix_bd_15_end_mask_0, x = matrix_bd_13_cast_fp16)[name = tensor("matrix_bd_15_cast_fp16")]; - tensor var_732_cast_fp16 = add(x = matrix_ac_7_cast_fp16, y = matrix_bd_15_cast_fp16)[name = tensor("op_732_cast_fp16")]; + tensor matrix_bd_15_cast_fp16 = slice_by_index(begin = matrix_bd_15_begin_0, end = matrix_bd_15_end_0, end_mask = matrix_bd_15_end_mask_0, x = matrix_bd_13_cast_fp16)[name = tensor("matrix_bd_15_cast_fp16")]; + tensor var_732_cast_fp16 = add(x = matrix_ac_7_cast_fp16, y = matrix_bd_15_cast_fp16)[name = tensor("op_732_cast_fp16")]; tensor _inversed_scores_13_y_0_to_fp16 = const()[name = tensor("_inversed_scores_13_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_13_cast_fp16 = mul(x = var_732_cast_fp16, y = _inversed_scores_13_y_0_to_fp16)[name = tensor("_inversed_scores_13_cast_fp16")]; - tensor scores_15_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_13_cast_fp16, cond = mask_3)[name = tensor("scores_15_cast_fp16")]; - tensor var_738_cast_fp16 = softmax(axis = var_30, x = scores_15_cast_fp16)[name = tensor("op_738_cast_fp16")]; - tensor input_171_cast_fp16 = select(a = var_21_to_fp16, b = var_738_cast_fp16, cond = mask_3)[name = tensor("input_171_cast_fp16")]; + tensor _inversed_scores_13_cast_fp16 = mul(x = var_732_cast_fp16, y = _inversed_scores_13_y_0_to_fp16)[name = tensor("_inversed_scores_13_cast_fp16")]; + tensor scores_15_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_13_cast_fp16, cond = mask_3)[name = tensor("scores_15_cast_fp16")]; + tensor var_738_cast_fp16 = softmax(axis = var_30, x = scores_15_cast_fp16)[name = tensor("op_738_cast_fp16")]; + tensor input_171_cast_fp16 = select(a = var_21_to_fp16, b = var_738_cast_fp16, cond = mask_3)[name = tensor("input_171_cast_fp16")]; tensor x_77_transpose_x_0 = const()[name = tensor("x_77_transpose_x_0"), val = tensor(false)]; tensor x_77_transpose_y_0 = const()[name = tensor("x_77_transpose_y_0"), val = tensor(false)]; - tensor value_7_cast_fp16 = transpose(perm = value_7_perm_0, x = v_7_cast_fp16)[name = tensor("transpose_290")]; - tensor x_77_cast_fp16 = matmul(transpose_x = x_77_transpose_x_0, transpose_y = x_77_transpose_y_0, x = input_171_cast_fp16, y = value_7_cast_fp16)[name = tensor("x_77_cast_fp16")]; + tensor value_7_cast_fp16 = transpose(perm = value_7_perm_0, x = v_7_cast_fp16)[name = tensor("transpose_290")]; + tensor x_77_cast_fp16 = matmul(transpose_x = x_77_transpose_x_0, transpose_y = x_77_transpose_y_0, x = input_171_cast_fp16, y = value_7_cast_fp16)[name = tensor("x_77_cast_fp16")]; tensor var_742_perm_0 = const()[name = tensor("op_742_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_743 = const()[name = tensor("op_743"), val = tensor([1, -1, 512])]; - tensor var_742_cast_fp16 = transpose(perm = var_742_perm_0, x = x_77_cast_fp16)[name = tensor("transpose_286")]; - tensor input_173_cast_fp16 = reshape(shape = var_743, x = var_742_cast_fp16)[name = tensor("input_173_cast_fp16")]; - tensor model_encoder_layers_3_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44063424)))]; - tensor model_encoder_layers_3_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44587776)))]; - tensor linear_33_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_out_weight_to_fp16, x = input_173_cast_fp16)[name = tensor("linear_33_cast_fp16")]; - tensor input_177_cast_fp16 = add(x = input_169_cast_fp16, y = linear_33_cast_fp16)[name = tensor("input_177_cast_fp16")]; + tensor var_742_cast_fp16 = transpose(perm = var_742_perm_0, x = x_77_cast_fp16)[name = tensor("transpose_286")]; + tensor input_173_cast_fp16 = reshape(shape = var_743, x = var_742_cast_fp16)[name = tensor("input_173_cast_fp16")]; + tensor model_encoder_layers_3_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45275840)))]; + tensor model_encoder_layers_3_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45800192)))]; + tensor linear_33_cast_fp16 = linear(bias = model_encoder_layers_3_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_3_self_attn_linear_out_weight_to_fp16, x = input_173_cast_fp16)[name = tensor("linear_33_cast_fp16")]; + tensor input_177_cast_fp16 = add(x = input_169_cast_fp16, y = linear_33_cast_fp16)[name = tensor("input_177_cast_fp16")]; tensor x_81_axes_0 = const()[name = tensor("x_81_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_3_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44588864)))]; - tensor model_encoder_layers_3_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44589952)))]; - tensor x_81_cast_fp16 = layer_norm(axes = x_81_axes_0, beta = model_encoder_layers_3_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_conv_weight_to_fp16, x = input_177_cast_fp16)[name = tensor("x_81_cast_fp16")]; + tensor model_encoder_layers_3_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45801280)))]; + tensor model_encoder_layers_3_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45802368)))]; + tensor x_81_cast_fp16 = layer_norm(axes = x_81_axes_0, beta = model_encoder_layers_3_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_conv_weight_to_fp16, x = input_177_cast_fp16)[name = tensor("x_81_cast_fp16")]; tensor input_179_perm_0 = const()[name = tensor("input_179_perm_0"), val = tensor([0, 2, 1])]; tensor input_181_pad_type_0 = const()[name = tensor("input_181_pad_type_0"), val = tensor("valid")]; tensor input_181_strides_0 = const()[name = tensor("input_181_strides_0"), val = tensor([1])]; tensor input_181_pad_0 = const()[name = tensor("input_181_pad_0"), val = tensor([0, 0])]; tensor input_181_dilations_0 = const()[name = tensor("input_181_dilations_0"), val = tensor([1])]; tensor input_181_groups_0 = const()[name = tensor("input_181_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_3_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(44591040)))]; - tensor model_encoder_layers_3_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45639680)))]; - tensor input_179_cast_fp16 = transpose(perm = input_179_perm_0, x = x_81_cast_fp16)[name = tensor("transpose_285")]; - tensor input_181_cast_fp16 = conv(bias = model_encoder_layers_3_conv_pointwise_conv1_bias_to_fp16, dilations = input_181_dilations_0, groups = input_181_groups_0, pad = input_181_pad_0, pad_type = input_181_pad_type_0, strides = input_181_strides_0, weight = model_encoder_layers_3_conv_pointwise_conv1_weight_to_fp16, x = input_179_cast_fp16)[name = tensor("input_181_cast_fp16")]; + tensor model_encoder_layers_3_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45803456)))]; + tensor model_encoder_layers_3_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46852096)))]; + tensor input_179_cast_fp16 = transpose(perm = input_179_perm_0, x = x_81_cast_fp16)[name = tensor("transpose_285")]; + tensor input_181_cast_fp16 = conv(bias = model_encoder_layers_3_conv_pointwise_conv1_bias_to_fp16, dilations = input_181_dilations_0, groups = input_181_groups_0, pad = input_181_pad_0, pad_type = input_181_pad_type_0, strides = input_181_strides_0, weight = model_encoder_layers_3_conv_pointwise_conv1_weight_to_fp16, x = input_179_cast_fp16)[name = tensor("input_181_cast_fp16")]; tensor x_83_split_num_splits_0 = const()[name = tensor("x_83_split_num_splits_0"), val = tensor(2)]; tensor x_83_split_axis_0 = const()[name = tensor("x_83_split_axis_0"), val = tensor(1)]; - tensor x_83_split_cast_fp16_0, tensor x_83_split_cast_fp16_1 = split(axis = x_83_split_axis_0, num_splits = x_83_split_num_splits_0, x = input_181_cast_fp16)[name = tensor("x_83_split_cast_fp16")]; - tensor x_83_split_1_sigmoid_cast_fp16 = sigmoid(x = x_83_split_cast_fp16_1)[name = tensor("x_83_split_1_sigmoid_cast_fp16")]; - tensor x_83_cast_fp16 = mul(x = x_83_split_cast_fp16_0, y = x_83_split_1_sigmoid_cast_fp16)[name = tensor("x_83_cast_fp16")]; - tensor input_183_cast_fp16 = select(a = var_21_to_fp16, b = x_83_cast_fp16, cond = var_245)[name = tensor("input_183_cast_fp16")]; + tensor x_83_split_cast_fp16_0, tensor x_83_split_cast_fp16_1 = split(axis = x_83_split_axis_0, num_splits = x_83_split_num_splits_0, x = input_181_cast_fp16)[name = tensor("x_83_split_cast_fp16")]; + tensor x_83_split_1_sigmoid_cast_fp16 = sigmoid(x = x_83_split_cast_fp16_1)[name = tensor("x_83_split_1_sigmoid_cast_fp16")]; + tensor x_83_cast_fp16 = mul(x = x_83_split_cast_fp16_0, y = x_83_split_1_sigmoid_cast_fp16)[name = tensor("x_83_cast_fp16")]; + tensor input_183_cast_fp16 = select(a = var_21_to_fp16, b = x_83_cast_fp16, cond = var_245)[name = tensor("input_183_cast_fp16")]; tensor input_185_pad_0 = const()[name = tensor("input_185_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_185_mode_0 = const()[name = tensor("input_185_mode_0"), val = tensor("constant")]; tensor const_45_to_fp16 = const()[name = tensor("const_45_to_fp16"), val = tensor(0x0p+0)]; - tensor input_185_cast_fp16 = pad(constant_val = const_45_to_fp16, mode = input_185_mode_0, pad = input_185_pad_0, x = input_183_cast_fp16)[name = tensor("input_185_cast_fp16")]; + tensor input_185_cast_fp16 = pad(constant_val = const_45_to_fp16, mode = input_185_mode_0, pad = input_185_pad_0, x = input_183_cast_fp16)[name = tensor("input_185_cast_fp16")]; tensor input_187_pad_type_0 = const()[name = tensor("input_187_pad_type_0"), val = tensor("valid")]; tensor input_187_groups_0 = const()[name = tensor("input_187_groups_0"), val = tensor(512)]; tensor input_187_strides_0 = const()[name = tensor("input_187_strides_0"), val = tensor([1])]; tensor input_187_pad_0 = const()[name = tensor("input_187_pad_0"), val = tensor([0, 0])]; tensor input_187_dilations_0 = const()[name = tensor("input_187_dilations_0"), val = tensor([1])]; - tensor const_348_to_fp16 = const()[name = tensor("const_348_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45641792)))]; - tensor const_349_to_fp16 = const()[name = tensor("const_349_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45651072)))]; - tensor input_189_cast_fp16 = conv(bias = const_349_to_fp16, dilations = input_187_dilations_0, groups = input_187_groups_0, pad = input_187_pad_0, pad_type = input_187_pad_type_0, strides = input_187_strides_0, weight = const_348_to_fp16, x = input_185_cast_fp16)[name = tensor("input_189_cast_fp16")]; - tensor input_191_cast_fp16 = silu(x = input_189_cast_fp16)[name = tensor("input_191_cast_fp16")]; + tensor const_348_to_fp16 = const()[name = tensor("const_348_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46854208)))]; + tensor const_349_to_fp16 = const()[name = tensor("const_349_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46863488)))]; + tensor input_189_cast_fp16 = conv(bias = const_349_to_fp16, dilations = input_187_dilations_0, groups = input_187_groups_0, pad = input_187_pad_0, pad_type = input_187_pad_type_0, strides = input_187_strides_0, weight = const_348_to_fp16, x = input_185_cast_fp16)[name = tensor("input_189_cast_fp16")]; + tensor input_191_cast_fp16 = silu(x = input_189_cast_fp16)[name = tensor("input_191_cast_fp16")]; tensor x_85_pad_type_0 = const()[name = tensor("x_85_pad_type_0"), val = tensor("valid")]; tensor x_85_strides_0 = const()[name = tensor("x_85_strides_0"), val = tensor([1])]; tensor x_85_pad_0 = const()[name = tensor("x_85_pad_0"), val = tensor([0, 0])]; tensor x_85_dilations_0 = const()[name = tensor("x_85_dilations_0"), val = tensor([1])]; tensor x_85_groups_0 = const()[name = tensor("x_85_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_3_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(45652160)))]; - tensor model_encoder_layers_3_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46176512)))]; - tensor x_85_cast_fp16 = conv(bias = model_encoder_layers_3_conv_pointwise_conv2_bias_to_fp16, dilations = x_85_dilations_0, groups = x_85_groups_0, pad = x_85_pad_0, pad_type = x_85_pad_type_0, strides = x_85_strides_0, weight = model_encoder_layers_3_conv_pointwise_conv2_weight_to_fp16, x = input_191_cast_fp16)[name = tensor("x_85_cast_fp16")]; + tensor model_encoder_layers_3_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46864576)))]; + tensor model_encoder_layers_3_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(47388928)))]; + tensor x_85_cast_fp16 = conv(bias = model_encoder_layers_3_conv_pointwise_conv2_bias_to_fp16, dilations = x_85_dilations_0, groups = x_85_groups_0, pad = x_85_pad_0, pad_type = x_85_pad_type_0, strides = x_85_strides_0, weight = model_encoder_layers_3_conv_pointwise_conv2_weight_to_fp16, x = input_191_cast_fp16)[name = tensor("x_85_cast_fp16")]; tensor input_193_perm_0 = const()[name = tensor("input_193_perm_0"), val = tensor([0, 2, 1])]; - tensor input_193_cast_fp16 = transpose(perm = input_193_perm_0, x = x_85_cast_fp16)[name = tensor("transpose_284")]; - tensor input_195_cast_fp16 = add(x = input_177_cast_fp16, y = input_193_cast_fp16)[name = tensor("input_195_cast_fp16")]; + tensor input_193_cast_fp16 = transpose(perm = input_193_perm_0, x = x_85_cast_fp16)[name = tensor("transpose_284")]; + tensor input_195_cast_fp16 = add(x = input_177_cast_fp16, y = input_193_cast_fp16)[name = tensor("input_195_cast_fp16")]; tensor input_197_axes_0 = const()[name = tensor("input_197_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_3_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46177600)))]; - tensor model_encoder_layers_3_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46178688)))]; - tensor input_197_cast_fp16 = layer_norm(axes = input_197_axes_0, beta = model_encoder_layers_3_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_feed_forward2_weight_to_fp16, x = input_195_cast_fp16)[name = tensor("input_197_cast_fp16")]; - tensor model_encoder_layers_3_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(46179776)))]; - tensor model_encoder_layers_3_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(48276992)))]; - tensor linear_34_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_3_feed_forward2_linear1_weight_to_fp16, x = input_197_cast_fp16)[name = tensor("linear_34_cast_fp16")]; - tensor input_201_cast_fp16 = silu(x = linear_34_cast_fp16)[name = tensor("input_201_cast_fp16")]; - tensor model_encoder_layers_3_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(48281152)))]; - tensor model_encoder_layers_3_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(50378368)))]; - tensor linear_35_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_3_feed_forward2_linear2_weight_to_fp16, x = input_201_cast_fp16)[name = tensor("linear_35_cast_fp16")]; + tensor model_encoder_layers_3_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(47390016)))]; + tensor model_encoder_layers_3_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(47391104)))]; + tensor input_197_cast_fp16 = layer_norm(axes = input_197_axes_0, beta = model_encoder_layers_3_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_feed_forward2_weight_to_fp16, x = input_195_cast_fp16)[name = tensor("input_197_cast_fp16")]; + tensor model_encoder_layers_3_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(47392192)))]; + tensor model_encoder_layers_3_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(49489408)))]; + tensor linear_34_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_3_feed_forward2_linear1_weight_to_fp16, x = input_197_cast_fp16)[name = tensor("linear_34_cast_fp16")]; + tensor input_201_cast_fp16 = silu(x = linear_34_cast_fp16)[name = tensor("input_201_cast_fp16")]; + tensor model_encoder_layers_3_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(49493568)))]; + tensor model_encoder_layers_3_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(51590784)))]; + tensor linear_35_cast_fp16 = linear(bias = model_encoder_layers_3_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_3_feed_forward2_linear2_weight_to_fp16, x = input_201_cast_fp16)[name = tensor("linear_35_cast_fp16")]; tensor var_809_to_fp16 = const()[name = tensor("op_809_to_fp16"), val = tensor(0x1p-1)]; - tensor var_810_cast_fp16 = mul(x = linear_35_cast_fp16, y = var_809_to_fp16)[name = tensor("op_810_cast_fp16")]; - tensor input_207_cast_fp16 = add(x = input_195_cast_fp16, y = var_810_cast_fp16)[name = tensor("input_207_cast_fp16")]; + tensor var_810_cast_fp16 = mul(x = linear_35_cast_fp16, y = var_809_to_fp16)[name = tensor("op_810_cast_fp16")]; + tensor input_207_cast_fp16 = add(x = input_195_cast_fp16, y = var_810_cast_fp16)[name = tensor("input_207_cast_fp16")]; tensor input_209_axes_0 = const()[name = tensor("input_209_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_3_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(50379456)))]; - tensor model_encoder_layers_3_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(50380544)))]; - tensor input_209_cast_fp16 = layer_norm(axes = input_209_axes_0, beta = model_encoder_layers_3_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_out_weight_to_fp16, x = input_207_cast_fp16)[name = tensor("input_209_cast_fp16")]; + tensor model_encoder_layers_3_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(51591872)))]; + tensor model_encoder_layers_3_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_3_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(51592960)))]; + tensor input_209_cast_fp16 = layer_norm(axes = input_209_axes_0, beta = model_encoder_layers_3_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_3_norm_out_weight_to_fp16, x = input_207_cast_fp16)[name = tensor("input_209_cast_fp16")]; tensor input_211_axes_0 = const()[name = tensor("input_211_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_4_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(50381632)))]; - tensor model_encoder_layers_4_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(50382720)))]; - tensor input_211_cast_fp16 = layer_norm(axes = input_211_axes_0, beta = model_encoder_layers_4_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_feed_forward1_weight_to_fp16, x = input_209_cast_fp16)[name = tensor("input_211_cast_fp16")]; - tensor model_encoder_layers_4_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(50383808)))]; - tensor model_encoder_layers_4_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(52481024)))]; - tensor linear_36_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_4_feed_forward1_linear1_weight_to_fp16, x = input_211_cast_fp16)[name = tensor("linear_36_cast_fp16")]; - tensor input_215_cast_fp16 = silu(x = linear_36_cast_fp16)[name = tensor("input_215_cast_fp16")]; - tensor model_encoder_layers_4_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(52485184)))]; - tensor model_encoder_layers_4_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(54582400)))]; - tensor linear_37_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_4_feed_forward1_linear2_weight_to_fp16, x = input_215_cast_fp16)[name = tensor("linear_37_cast_fp16")]; + tensor model_encoder_layers_4_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(51594048)))]; + tensor model_encoder_layers_4_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(51595136)))]; + tensor input_211_cast_fp16 = layer_norm(axes = input_211_axes_0, beta = model_encoder_layers_4_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_feed_forward1_weight_to_fp16, x = input_209_cast_fp16)[name = tensor("input_211_cast_fp16")]; + tensor model_encoder_layers_4_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(51596224)))]; + tensor model_encoder_layers_4_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(53693440)))]; + tensor linear_36_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_4_feed_forward1_linear1_weight_to_fp16, x = input_211_cast_fp16)[name = tensor("linear_36_cast_fp16")]; + tensor input_215_cast_fp16 = silu(x = linear_36_cast_fp16)[name = tensor("input_215_cast_fp16")]; + tensor model_encoder_layers_4_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(53697600)))]; + tensor model_encoder_layers_4_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55794816)))]; + tensor linear_37_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_4_feed_forward1_linear2_weight_to_fp16, x = input_215_cast_fp16)[name = tensor("linear_37_cast_fp16")]; tensor var_840_to_fp16 = const()[name = tensor("op_840_to_fp16"), val = tensor(0x1p-1)]; - tensor var_841_cast_fp16 = mul(x = linear_37_cast_fp16, y = var_840_to_fp16)[name = tensor("op_841_cast_fp16")]; - tensor input_221_cast_fp16 = add(x = input_209_cast_fp16, y = var_841_cast_fp16)[name = tensor("input_221_cast_fp16")]; + tensor var_841_cast_fp16 = mul(x = linear_37_cast_fp16, y = var_840_to_fp16)[name = tensor("op_841_cast_fp16")]; + tensor input_221_cast_fp16 = add(x = input_209_cast_fp16, y = var_841_cast_fp16)[name = tensor("input_221_cast_fp16")]; tensor query_9_axes_0 = const()[name = tensor("query_9_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_4_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(54583488)))]; - tensor model_encoder_layers_4_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(54584576)))]; - tensor query_9_cast_fp16 = layer_norm(axes = query_9_axes_0, beta = model_encoder_layers_4_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_self_att_weight_to_fp16, x = input_221_cast_fp16)[name = tensor("query_9_cast_fp16")]; - tensor model_encoder_layers_4_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(54585664)))]; - tensor model_encoder_layers_4_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55110016)))]; - tensor linear_38_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_q_weight_to_fp16, x = query_9_cast_fp16)[name = tensor("linear_38_cast_fp16")]; + tensor model_encoder_layers_4_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55795904)))]; + tensor model_encoder_layers_4_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55796992)))]; + tensor query_9_cast_fp16 = layer_norm(axes = query_9_axes_0, beta = model_encoder_layers_4_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_self_att_weight_to_fp16, x = input_221_cast_fp16)[name = tensor("query_9_cast_fp16")]; + tensor model_encoder_layers_4_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55798080)))]; + tensor model_encoder_layers_4_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56322432)))]; + tensor linear_38_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_q_weight_to_fp16, x = query_9_cast_fp16)[name = tensor("linear_38_cast_fp16")]; tensor var_858 = const()[name = tensor("op_858"), val = tensor([1, -1, 8, 64])]; - tensor q_25_cast_fp16 = reshape(shape = var_858, x = linear_38_cast_fp16)[name = tensor("q_25_cast_fp16")]; - tensor model_encoder_layers_4_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55111104)))]; - tensor model_encoder_layers_4_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55635456)))]; - tensor linear_39_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_k_weight_to_fp16, x = query_9_cast_fp16)[name = tensor("linear_39_cast_fp16")]; + tensor q_25_cast_fp16 = reshape(shape = var_858, x = linear_38_cast_fp16)[name = tensor("q_25_cast_fp16")]; + tensor model_encoder_layers_4_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56323520)))]; + tensor model_encoder_layers_4_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56847872)))]; + tensor linear_39_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_k_weight_to_fp16, x = query_9_cast_fp16)[name = tensor("linear_39_cast_fp16")]; tensor var_863 = const()[name = tensor("op_863"), val = tensor([1, -1, 8, 64])]; - tensor k_17_cast_fp16 = reshape(shape = var_863, x = linear_39_cast_fp16)[name = tensor("k_17_cast_fp16")]; - tensor model_encoder_layers_4_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(55636544)))]; - tensor model_encoder_layers_4_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56160896)))]; - tensor linear_40_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_v_weight_to_fp16, x = query_9_cast_fp16)[name = tensor("linear_40_cast_fp16")]; + tensor k_17_cast_fp16 = reshape(shape = var_863, x = linear_39_cast_fp16)[name = tensor("k_17_cast_fp16")]; + tensor model_encoder_layers_4_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56848960)))]; + tensor model_encoder_layers_4_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57373312)))]; + tensor linear_40_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_v_weight_to_fp16, x = query_9_cast_fp16)[name = tensor("linear_40_cast_fp16")]; tensor var_868 = const()[name = tensor("op_868"), val = tensor([1, -1, 8, 64])]; - tensor v_9_cast_fp16 = reshape(shape = var_868, x = linear_40_cast_fp16)[name = tensor("v_9_cast_fp16")]; + tensor v_9_cast_fp16 = reshape(shape = var_868, x = linear_40_cast_fp16)[name = tensor("v_9_cast_fp16")]; tensor value_9_perm_0 = const()[name = tensor("value_9_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_4_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56161984)))]; - tensor var_880_cast_fp16 = add(x = q_25_cast_fp16, y = model_encoder_layers_4_self_attn_pos_bias_u_to_fp16)[name = tensor("op_880_cast_fp16")]; - tensor model_encoder_layers_4_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56163072)))]; - tensor var_882_cast_fp16 = add(x = q_25_cast_fp16, y = model_encoder_layers_4_self_attn_pos_bias_v_to_fp16)[name = tensor("op_882_cast_fp16")]; + tensor model_encoder_layers_4_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57374400)))]; + tensor var_880_cast_fp16 = add(x = q_25_cast_fp16, y = model_encoder_layers_4_self_attn_pos_bias_u_to_fp16)[name = tensor("op_880_cast_fp16")]; + tensor model_encoder_layers_4_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57375488)))]; + tensor var_882_cast_fp16 = add(x = q_25_cast_fp16, y = model_encoder_layers_4_self_attn_pos_bias_v_to_fp16)[name = tensor("op_882_cast_fp16")]; tensor q_with_bias_v_9_perm_0 = const()[name = tensor("q_with_bias_v_9_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_93_transpose_x_0 = const()[name = tensor("x_93_transpose_x_0"), val = tensor(false)]; tensor x_93_transpose_y_0 = const()[name = tensor("x_93_transpose_y_0"), val = tensor(false)]; - tensor var_884_to_fp16 = const()[name = tensor("op_884_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56164160)))]; - tensor q_with_bias_v_9_cast_fp16 = transpose(perm = q_with_bias_v_9_perm_0, x = var_882_cast_fp16)[name = tensor("transpose_282")]; - tensor x_93_cast_fp16 = matmul(transpose_x = x_93_transpose_x_0, transpose_y = x_93_transpose_y_0, x = q_with_bias_v_9_cast_fp16, y = var_884_to_fp16)[name = tensor("x_93_cast_fp16")]; + tensor var_884_to_fp16 = const()[name = tensor("op_884_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57376576)))]; + tensor q_with_bias_v_9_cast_fp16 = transpose(perm = q_with_bias_v_9_perm_0, x = var_882_cast_fp16)[name = tensor("transpose_282")]; + tensor x_93_cast_fp16 = matmul(transpose_x = x_93_transpose_x_0, transpose_y = x_93_transpose_y_0, x = q_with_bias_v_9_cast_fp16, y = var_884_to_fp16)[name = tensor("x_93_cast_fp16")]; tensor x_95_pad_0 = const()[name = tensor("x_95_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_95_mode_0 = const()[name = tensor("x_95_mode_0"), val = tensor("constant")]; tensor const_52_to_fp16 = const()[name = tensor("const_52_to_fp16"), val = tensor(0x0p+0)]; - tensor x_95_cast_fp16 = pad(constant_val = const_52_to_fp16, mode = x_95_mode_0, pad = x_95_pad_0, x = x_93_cast_fp16)[name = tensor("x_95_cast_fp16")]; - tensor var_892 = const()[name = tensor("op_892"), val = tensor([1, 8, -1, 242])]; - tensor x_97_cast_fp16 = reshape(shape = var_892, x = x_95_cast_fp16)[name = tensor("x_97_cast_fp16")]; + tensor x_95_cast_fp16 = pad(constant_val = const_52_to_fp16, mode = x_95_mode_0, pad = x_95_pad_0, x = x_93_cast_fp16)[name = tensor("x_95_cast_fp16")]; + tensor var_892 = const()[name = tensor("op_892"), val = tensor([1, 8, -1, 390])]; + tensor x_97_cast_fp16 = reshape(shape = var_892, x = x_95_cast_fp16)[name = tensor("x_97_cast_fp16")]; tensor var_896_begin_0 = const()[name = tensor("op_896_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_896_end_0 = const()[name = tensor("op_896_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_896_end_0 = const()[name = tensor("op_896_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_896_end_mask_0 = const()[name = tensor("op_896_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_896_cast_fp16 = slice_by_index(begin = var_896_begin_0, end = var_896_end_0, end_mask = var_896_end_mask_0, x = x_97_cast_fp16)[name = tensor("op_896_cast_fp16")]; - tensor var_897 = const()[name = tensor("op_897"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_17_cast_fp16 = reshape(shape = var_897, x = var_896_cast_fp16)[name = tensor("matrix_bd_17_cast_fp16")]; + tensor var_896_cast_fp16 = slice_by_index(begin = var_896_begin_0, end = var_896_end_0, end_mask = var_896_end_mask_0, x = x_97_cast_fp16)[name = tensor("op_896_cast_fp16")]; + tensor var_897 = const()[name = tensor("op_897"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_17_cast_fp16 = reshape(shape = var_897, x = var_896_cast_fp16)[name = tensor("matrix_bd_17_cast_fp16")]; tensor matrix_ac_9_transpose_x_0 = const()[name = tensor("matrix_ac_9_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_9_transpose_y_0 = const()[name = tensor("matrix_ac_9_transpose_y_0"), val = tensor(false)]; tensor transpose_59_perm_0 = const()[name = tensor("transpose_59_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_60_perm_0 = const()[name = tensor("transpose_60_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_60 = transpose(perm = transpose_60_perm_0, x = k_17_cast_fp16)[name = tensor("transpose_280")]; - tensor transpose_59 = transpose(perm = transpose_59_perm_0, x = var_880_cast_fp16)[name = tensor("transpose_281")]; - tensor matrix_ac_9_cast_fp16 = matmul(transpose_x = matrix_ac_9_transpose_x_0, transpose_y = matrix_ac_9_transpose_y_0, x = transpose_59, y = transpose_60)[name = tensor("matrix_ac_9_cast_fp16")]; + tensor transpose_60 = transpose(perm = transpose_60_perm_0, x = k_17_cast_fp16)[name = tensor("transpose_280")]; + tensor transpose_59 = transpose(perm = transpose_59_perm_0, x = var_880_cast_fp16)[name = tensor("transpose_281")]; + tensor matrix_ac_9_cast_fp16 = matmul(transpose_x = matrix_ac_9_transpose_x_0, transpose_y = matrix_ac_9_transpose_y_0, x = transpose_59, y = transpose_60)[name = tensor("matrix_ac_9_cast_fp16")]; tensor matrix_bd_19_begin_0 = const()[name = tensor("matrix_bd_19_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_19_end_0 = const()[name = tensor("matrix_bd_19_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_19_end_0 = const()[name = tensor("matrix_bd_19_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_19_end_mask_0 = const()[name = tensor("matrix_bd_19_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_19_cast_fp16 = slice_by_index(begin = matrix_bd_19_begin_0, end = matrix_bd_19_end_0, end_mask = matrix_bd_19_end_mask_0, x = matrix_bd_17_cast_fp16)[name = tensor("matrix_bd_19_cast_fp16")]; - tensor var_906_cast_fp16 = add(x = matrix_ac_9_cast_fp16, y = matrix_bd_19_cast_fp16)[name = tensor("op_906_cast_fp16")]; + tensor matrix_bd_19_cast_fp16 = slice_by_index(begin = matrix_bd_19_begin_0, end = matrix_bd_19_end_0, end_mask = matrix_bd_19_end_mask_0, x = matrix_bd_17_cast_fp16)[name = tensor("matrix_bd_19_cast_fp16")]; + tensor var_906_cast_fp16 = add(x = matrix_ac_9_cast_fp16, y = matrix_bd_19_cast_fp16)[name = tensor("op_906_cast_fp16")]; tensor _inversed_scores_17_y_0_to_fp16 = const()[name = tensor("_inversed_scores_17_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_17_cast_fp16 = mul(x = var_906_cast_fp16, y = _inversed_scores_17_y_0_to_fp16)[name = tensor("_inversed_scores_17_cast_fp16")]; - tensor scores_19_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_17_cast_fp16, cond = mask_3)[name = tensor("scores_19_cast_fp16")]; - tensor var_912_cast_fp16 = softmax(axis = var_30, x = scores_19_cast_fp16)[name = tensor("op_912_cast_fp16")]; - tensor input_223_cast_fp16 = select(a = var_21_to_fp16, b = var_912_cast_fp16, cond = mask_3)[name = tensor("input_223_cast_fp16")]; + tensor _inversed_scores_17_cast_fp16 = mul(x = var_906_cast_fp16, y = _inversed_scores_17_y_0_to_fp16)[name = tensor("_inversed_scores_17_cast_fp16")]; + tensor scores_19_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_17_cast_fp16, cond = mask_3)[name = tensor("scores_19_cast_fp16")]; + tensor var_912_cast_fp16 = softmax(axis = var_30, x = scores_19_cast_fp16)[name = tensor("op_912_cast_fp16")]; + tensor input_223_cast_fp16 = select(a = var_21_to_fp16, b = var_912_cast_fp16, cond = mask_3)[name = tensor("input_223_cast_fp16")]; tensor x_99_transpose_x_0 = const()[name = tensor("x_99_transpose_x_0"), val = tensor(false)]; tensor x_99_transpose_y_0 = const()[name = tensor("x_99_transpose_y_0"), val = tensor(false)]; - tensor value_9_cast_fp16 = transpose(perm = value_9_perm_0, x = v_9_cast_fp16)[name = tensor("transpose_283")]; - tensor x_99_cast_fp16 = matmul(transpose_x = x_99_transpose_x_0, transpose_y = x_99_transpose_y_0, x = input_223_cast_fp16, y = value_9_cast_fp16)[name = tensor("x_99_cast_fp16")]; + tensor value_9_cast_fp16 = transpose(perm = value_9_perm_0, x = v_9_cast_fp16)[name = tensor("transpose_283")]; + tensor x_99_cast_fp16 = matmul(transpose_x = x_99_transpose_x_0, transpose_y = x_99_transpose_y_0, x = input_223_cast_fp16, y = value_9_cast_fp16)[name = tensor("x_99_cast_fp16")]; tensor var_916_perm_0 = const()[name = tensor("op_916_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_917 = const()[name = tensor("op_917"), val = tensor([1, -1, 512])]; - tensor var_916_cast_fp16 = transpose(perm = var_916_perm_0, x = x_99_cast_fp16)[name = tensor("transpose_279")]; - tensor input_225_cast_fp16 = reshape(shape = var_917, x = var_916_cast_fp16)[name = tensor("input_225_cast_fp16")]; - tensor model_encoder_layers_4_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(56658816)))]; - tensor model_encoder_layers_4_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57183168)))]; - tensor linear_42_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_out_weight_to_fp16, x = input_225_cast_fp16)[name = tensor("linear_42_cast_fp16")]; - tensor input_229_cast_fp16 = add(x = input_221_cast_fp16, y = linear_42_cast_fp16)[name = tensor("input_229_cast_fp16")]; + tensor var_916_cast_fp16 = transpose(perm = var_916_perm_0, x = x_99_cast_fp16)[name = tensor("transpose_279")]; + tensor input_225_cast_fp16 = reshape(shape = var_917, x = var_916_cast_fp16)[name = tensor("input_225_cast_fp16")]; + tensor model_encoder_layers_4_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58174336)))]; + tensor model_encoder_layers_4_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58698688)))]; + tensor linear_42_cast_fp16 = linear(bias = model_encoder_layers_4_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_4_self_attn_linear_out_weight_to_fp16, x = input_225_cast_fp16)[name = tensor("linear_42_cast_fp16")]; + tensor input_229_cast_fp16 = add(x = input_221_cast_fp16, y = linear_42_cast_fp16)[name = tensor("input_229_cast_fp16")]; tensor x_103_axes_0 = const()[name = tensor("x_103_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_4_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57184256)))]; - tensor model_encoder_layers_4_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57185344)))]; - tensor x_103_cast_fp16 = layer_norm(axes = x_103_axes_0, beta = model_encoder_layers_4_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_conv_weight_to_fp16, x = input_229_cast_fp16)[name = tensor("x_103_cast_fp16")]; + tensor model_encoder_layers_4_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58699776)))]; + tensor model_encoder_layers_4_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58700864)))]; + tensor x_103_cast_fp16 = layer_norm(axes = x_103_axes_0, beta = model_encoder_layers_4_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_conv_weight_to_fp16, x = input_229_cast_fp16)[name = tensor("x_103_cast_fp16")]; tensor input_231_perm_0 = const()[name = tensor("input_231_perm_0"), val = tensor([0, 2, 1])]; tensor input_233_pad_type_0 = const()[name = tensor("input_233_pad_type_0"), val = tensor("valid")]; tensor input_233_strides_0 = const()[name = tensor("input_233_strides_0"), val = tensor([1])]; tensor input_233_pad_0 = const()[name = tensor("input_233_pad_0"), val = tensor([0, 0])]; tensor input_233_dilations_0 = const()[name = tensor("input_233_dilations_0"), val = tensor([1])]; tensor input_233_groups_0 = const()[name = tensor("input_233_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_4_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(57186432)))]; - tensor model_encoder_layers_4_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58235072)))]; - tensor input_231_cast_fp16 = transpose(perm = input_231_perm_0, x = x_103_cast_fp16)[name = tensor("transpose_278")]; - tensor input_233_cast_fp16 = conv(bias = model_encoder_layers_4_conv_pointwise_conv1_bias_to_fp16, dilations = input_233_dilations_0, groups = input_233_groups_0, pad = input_233_pad_0, pad_type = input_233_pad_type_0, strides = input_233_strides_0, weight = model_encoder_layers_4_conv_pointwise_conv1_weight_to_fp16, x = input_231_cast_fp16)[name = tensor("input_233_cast_fp16")]; + tensor model_encoder_layers_4_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58701952)))]; + tensor model_encoder_layers_4_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(59750592)))]; + tensor input_231_cast_fp16 = transpose(perm = input_231_perm_0, x = x_103_cast_fp16)[name = tensor("transpose_278")]; + tensor input_233_cast_fp16 = conv(bias = model_encoder_layers_4_conv_pointwise_conv1_bias_to_fp16, dilations = input_233_dilations_0, groups = input_233_groups_0, pad = input_233_pad_0, pad_type = input_233_pad_type_0, strides = input_233_strides_0, weight = model_encoder_layers_4_conv_pointwise_conv1_weight_to_fp16, x = input_231_cast_fp16)[name = tensor("input_233_cast_fp16")]; tensor x_105_split_num_splits_0 = const()[name = tensor("x_105_split_num_splits_0"), val = tensor(2)]; tensor x_105_split_axis_0 = const()[name = tensor("x_105_split_axis_0"), val = tensor(1)]; - tensor x_105_split_cast_fp16_0, tensor x_105_split_cast_fp16_1 = split(axis = x_105_split_axis_0, num_splits = x_105_split_num_splits_0, x = input_233_cast_fp16)[name = tensor("x_105_split_cast_fp16")]; - tensor x_105_split_1_sigmoid_cast_fp16 = sigmoid(x = x_105_split_cast_fp16_1)[name = tensor("x_105_split_1_sigmoid_cast_fp16")]; - tensor x_105_cast_fp16 = mul(x = x_105_split_cast_fp16_0, y = x_105_split_1_sigmoid_cast_fp16)[name = tensor("x_105_cast_fp16")]; - tensor input_235_cast_fp16 = select(a = var_21_to_fp16, b = x_105_cast_fp16, cond = var_245)[name = tensor("input_235_cast_fp16")]; + tensor x_105_split_cast_fp16_0, tensor x_105_split_cast_fp16_1 = split(axis = x_105_split_axis_0, num_splits = x_105_split_num_splits_0, x = input_233_cast_fp16)[name = tensor("x_105_split_cast_fp16")]; + tensor x_105_split_1_sigmoid_cast_fp16 = sigmoid(x = x_105_split_cast_fp16_1)[name = tensor("x_105_split_1_sigmoid_cast_fp16")]; + tensor x_105_cast_fp16 = mul(x = x_105_split_cast_fp16_0, y = x_105_split_1_sigmoid_cast_fp16)[name = tensor("x_105_cast_fp16")]; + tensor input_235_cast_fp16 = select(a = var_21_to_fp16, b = x_105_cast_fp16, cond = var_245)[name = tensor("input_235_cast_fp16")]; tensor input_237_pad_0 = const()[name = tensor("input_237_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_237_mode_0 = const()[name = tensor("input_237_mode_0"), val = tensor("constant")]; tensor const_55_to_fp16 = const()[name = tensor("const_55_to_fp16"), val = tensor(0x0p+0)]; - tensor input_237_cast_fp16 = pad(constant_val = const_55_to_fp16, mode = input_237_mode_0, pad = input_237_pad_0, x = input_235_cast_fp16)[name = tensor("input_237_cast_fp16")]; + tensor input_237_cast_fp16 = pad(constant_val = const_55_to_fp16, mode = input_237_mode_0, pad = input_237_pad_0, x = input_235_cast_fp16)[name = tensor("input_237_cast_fp16")]; tensor input_239_pad_type_0 = const()[name = tensor("input_239_pad_type_0"), val = tensor("valid")]; tensor input_239_groups_0 = const()[name = tensor("input_239_groups_0"), val = tensor(512)]; tensor input_239_strides_0 = const()[name = tensor("input_239_strides_0"), val = tensor([1])]; tensor input_239_pad_0 = const()[name = tensor("input_239_pad_0"), val = tensor([0, 0])]; tensor input_239_dilations_0 = const()[name = tensor("input_239_dilations_0"), val = tensor([1])]; - tensor const_350_to_fp16 = const()[name = tensor("const_350_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58237184)))]; - tensor const_351_to_fp16 = const()[name = tensor("const_351_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58246464)))]; - tensor input_241_cast_fp16 = conv(bias = const_351_to_fp16, dilations = input_239_dilations_0, groups = input_239_groups_0, pad = input_239_pad_0, pad_type = input_239_pad_type_0, strides = input_239_strides_0, weight = const_350_to_fp16, x = input_237_cast_fp16)[name = tensor("input_241_cast_fp16")]; - tensor input_243_cast_fp16 = silu(x = input_241_cast_fp16)[name = tensor("input_243_cast_fp16")]; + tensor const_350_to_fp16 = const()[name = tensor("const_350_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(59752704)))]; + tensor const_351_to_fp16 = const()[name = tensor("const_351_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(59761984)))]; + tensor input_241_cast_fp16 = conv(bias = const_351_to_fp16, dilations = input_239_dilations_0, groups = input_239_groups_0, pad = input_239_pad_0, pad_type = input_239_pad_type_0, strides = input_239_strides_0, weight = const_350_to_fp16, x = input_237_cast_fp16)[name = tensor("input_241_cast_fp16")]; + tensor input_243_cast_fp16 = silu(x = input_241_cast_fp16)[name = tensor("input_243_cast_fp16")]; tensor x_107_pad_type_0 = const()[name = tensor("x_107_pad_type_0"), val = tensor("valid")]; tensor x_107_strides_0 = const()[name = tensor("x_107_strides_0"), val = tensor([1])]; tensor x_107_pad_0 = const()[name = tensor("x_107_pad_0"), val = tensor([0, 0])]; tensor x_107_dilations_0 = const()[name = tensor("x_107_dilations_0"), val = tensor([1])]; tensor x_107_groups_0 = const()[name = tensor("x_107_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_4_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58247552)))]; - tensor model_encoder_layers_4_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58771904)))]; - tensor x_107_cast_fp16 = conv(bias = model_encoder_layers_4_conv_pointwise_conv2_bias_to_fp16, dilations = x_107_dilations_0, groups = x_107_groups_0, pad = x_107_pad_0, pad_type = x_107_pad_type_0, strides = x_107_strides_0, weight = model_encoder_layers_4_conv_pointwise_conv2_weight_to_fp16, x = input_243_cast_fp16)[name = tensor("x_107_cast_fp16")]; + tensor model_encoder_layers_4_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(59763072)))]; + tensor model_encoder_layers_4_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(60287424)))]; + tensor x_107_cast_fp16 = conv(bias = model_encoder_layers_4_conv_pointwise_conv2_bias_to_fp16, dilations = x_107_dilations_0, groups = x_107_groups_0, pad = x_107_pad_0, pad_type = x_107_pad_type_0, strides = x_107_strides_0, weight = model_encoder_layers_4_conv_pointwise_conv2_weight_to_fp16, x = input_243_cast_fp16)[name = tensor("x_107_cast_fp16")]; tensor input_245_perm_0 = const()[name = tensor("input_245_perm_0"), val = tensor([0, 2, 1])]; - tensor input_245_cast_fp16 = transpose(perm = input_245_perm_0, x = x_107_cast_fp16)[name = tensor("transpose_277")]; - tensor input_247_cast_fp16 = add(x = input_229_cast_fp16, y = input_245_cast_fp16)[name = tensor("input_247_cast_fp16")]; + tensor input_245_cast_fp16 = transpose(perm = input_245_perm_0, x = x_107_cast_fp16)[name = tensor("transpose_277")]; + tensor input_247_cast_fp16 = add(x = input_229_cast_fp16, y = input_245_cast_fp16)[name = tensor("input_247_cast_fp16")]; tensor input_249_axes_0 = const()[name = tensor("input_249_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_4_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58772992)))]; - tensor model_encoder_layers_4_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58774080)))]; - tensor input_249_cast_fp16 = layer_norm(axes = input_249_axes_0, beta = model_encoder_layers_4_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_feed_forward2_weight_to_fp16, x = input_247_cast_fp16)[name = tensor("input_249_cast_fp16")]; - tensor model_encoder_layers_4_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(58775168)))]; - tensor model_encoder_layers_4_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(60872384)))]; - tensor linear_43_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_4_feed_forward2_linear1_weight_to_fp16, x = input_249_cast_fp16)[name = tensor("linear_43_cast_fp16")]; - tensor input_253_cast_fp16 = silu(x = linear_43_cast_fp16)[name = tensor("input_253_cast_fp16")]; - tensor model_encoder_layers_4_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(60876544)))]; - tensor model_encoder_layers_4_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62973760)))]; - tensor linear_44_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_4_feed_forward2_linear2_weight_to_fp16, x = input_253_cast_fp16)[name = tensor("linear_44_cast_fp16")]; + tensor model_encoder_layers_4_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(60288512)))]; + tensor model_encoder_layers_4_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(60289600)))]; + tensor input_249_cast_fp16 = layer_norm(axes = input_249_axes_0, beta = model_encoder_layers_4_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_feed_forward2_weight_to_fp16, x = input_247_cast_fp16)[name = tensor("input_249_cast_fp16")]; + tensor model_encoder_layers_4_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(60290688)))]; + tensor model_encoder_layers_4_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62387904)))]; + tensor linear_43_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_4_feed_forward2_linear1_weight_to_fp16, x = input_249_cast_fp16)[name = tensor("linear_43_cast_fp16")]; + tensor input_253_cast_fp16 = silu(x = linear_43_cast_fp16)[name = tensor("input_253_cast_fp16")]; + tensor model_encoder_layers_4_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62392064)))]; + tensor model_encoder_layers_4_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(64489280)))]; + tensor linear_44_cast_fp16 = linear(bias = model_encoder_layers_4_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_4_feed_forward2_linear2_weight_to_fp16, x = input_253_cast_fp16)[name = tensor("linear_44_cast_fp16")]; tensor var_983_to_fp16 = const()[name = tensor("op_983_to_fp16"), val = tensor(0x1p-1)]; - tensor var_984_cast_fp16 = mul(x = linear_44_cast_fp16, y = var_983_to_fp16)[name = tensor("op_984_cast_fp16")]; - tensor input_259_cast_fp16 = add(x = input_247_cast_fp16, y = var_984_cast_fp16)[name = tensor("input_259_cast_fp16")]; + tensor var_984_cast_fp16 = mul(x = linear_44_cast_fp16, y = var_983_to_fp16)[name = tensor("op_984_cast_fp16")]; + tensor input_259_cast_fp16 = add(x = input_247_cast_fp16, y = var_984_cast_fp16)[name = tensor("input_259_cast_fp16")]; tensor input_261_axes_0 = const()[name = tensor("input_261_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_4_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62974848)))]; - tensor model_encoder_layers_4_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62975936)))]; - tensor input_261_cast_fp16 = layer_norm(axes = input_261_axes_0, beta = model_encoder_layers_4_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_out_weight_to_fp16, x = input_259_cast_fp16)[name = tensor("input_261_cast_fp16")]; + tensor model_encoder_layers_4_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(64490368)))]; + tensor model_encoder_layers_4_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_4_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(64491456)))]; + tensor input_261_cast_fp16 = layer_norm(axes = input_261_axes_0, beta = model_encoder_layers_4_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_4_norm_out_weight_to_fp16, x = input_259_cast_fp16)[name = tensor("input_261_cast_fp16")]; tensor input_263_axes_0 = const()[name = tensor("input_263_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_5_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62977024)))]; - tensor model_encoder_layers_5_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62978112)))]; - tensor input_263_cast_fp16 = layer_norm(axes = input_263_axes_0, beta = model_encoder_layers_5_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_feed_forward1_weight_to_fp16, x = input_261_cast_fp16)[name = tensor("input_263_cast_fp16")]; - tensor model_encoder_layers_5_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(62979200)))]; - tensor model_encoder_layers_5_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(65076416)))]; - tensor linear_45_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_5_feed_forward1_linear1_weight_to_fp16, x = input_263_cast_fp16)[name = tensor("linear_45_cast_fp16")]; - tensor input_267_cast_fp16 = silu(x = linear_45_cast_fp16)[name = tensor("input_267_cast_fp16")]; - tensor model_encoder_layers_5_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(65080576)))]; - tensor model_encoder_layers_5_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(67177792)))]; - tensor linear_46_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_5_feed_forward1_linear2_weight_to_fp16, x = input_267_cast_fp16)[name = tensor("linear_46_cast_fp16")]; + tensor model_encoder_layers_5_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(64492544)))]; + tensor model_encoder_layers_5_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(64493632)))]; + tensor input_263_cast_fp16 = layer_norm(axes = input_263_axes_0, beta = model_encoder_layers_5_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_feed_forward1_weight_to_fp16, x = input_261_cast_fp16)[name = tensor("input_263_cast_fp16")]; + tensor model_encoder_layers_5_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(64494720)))]; + tensor model_encoder_layers_5_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(66591936)))]; + tensor linear_45_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_5_feed_forward1_linear1_weight_to_fp16, x = input_263_cast_fp16)[name = tensor("linear_45_cast_fp16")]; + tensor input_267_cast_fp16 = silu(x = linear_45_cast_fp16)[name = tensor("input_267_cast_fp16")]; + tensor model_encoder_layers_5_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(66596096)))]; + tensor model_encoder_layers_5_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68693312)))]; + tensor linear_46_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_5_feed_forward1_linear2_weight_to_fp16, x = input_267_cast_fp16)[name = tensor("linear_46_cast_fp16")]; tensor var_1014_to_fp16 = const()[name = tensor("op_1014_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1015_cast_fp16 = mul(x = linear_46_cast_fp16, y = var_1014_to_fp16)[name = tensor("op_1015_cast_fp16")]; - tensor input_273_cast_fp16 = add(x = input_261_cast_fp16, y = var_1015_cast_fp16)[name = tensor("input_273_cast_fp16")]; + tensor var_1015_cast_fp16 = mul(x = linear_46_cast_fp16, y = var_1014_to_fp16)[name = tensor("op_1015_cast_fp16")]; + tensor input_273_cast_fp16 = add(x = input_261_cast_fp16, y = var_1015_cast_fp16)[name = tensor("input_273_cast_fp16")]; tensor query_11_axes_0 = const()[name = tensor("query_11_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_5_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(67178880)))]; - tensor model_encoder_layers_5_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(67179968)))]; - tensor query_11_cast_fp16 = layer_norm(axes = query_11_axes_0, beta = model_encoder_layers_5_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_self_att_weight_to_fp16, x = input_273_cast_fp16)[name = tensor("query_11_cast_fp16")]; - tensor model_encoder_layers_5_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(67181056)))]; - tensor model_encoder_layers_5_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(67705408)))]; - tensor linear_47_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_q_weight_to_fp16, x = query_11_cast_fp16)[name = tensor("linear_47_cast_fp16")]; + tensor model_encoder_layers_5_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68694400)))]; + tensor model_encoder_layers_5_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68695488)))]; + tensor query_11_cast_fp16 = layer_norm(axes = query_11_axes_0, beta = model_encoder_layers_5_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_self_att_weight_to_fp16, x = input_273_cast_fp16)[name = tensor("query_11_cast_fp16")]; + tensor model_encoder_layers_5_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68696576)))]; + tensor model_encoder_layers_5_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69220928)))]; + tensor linear_47_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_q_weight_to_fp16, x = query_11_cast_fp16)[name = tensor("linear_47_cast_fp16")]; tensor var_1032 = const()[name = tensor("op_1032"), val = tensor([1, -1, 8, 64])]; - tensor q_31_cast_fp16 = reshape(shape = var_1032, x = linear_47_cast_fp16)[name = tensor("q_31_cast_fp16")]; - tensor model_encoder_layers_5_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(67706496)))]; - tensor model_encoder_layers_5_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68230848)))]; - tensor linear_48_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_k_weight_to_fp16, x = query_11_cast_fp16)[name = tensor("linear_48_cast_fp16")]; + tensor q_31_cast_fp16 = reshape(shape = var_1032, x = linear_47_cast_fp16)[name = tensor("q_31_cast_fp16")]; + tensor model_encoder_layers_5_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69222016)))]; + tensor model_encoder_layers_5_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69746368)))]; + tensor linear_48_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_k_weight_to_fp16, x = query_11_cast_fp16)[name = tensor("linear_48_cast_fp16")]; tensor var_1037 = const()[name = tensor("op_1037"), val = tensor([1, -1, 8, 64])]; - tensor k_21_cast_fp16 = reshape(shape = var_1037, x = linear_48_cast_fp16)[name = tensor("k_21_cast_fp16")]; - tensor model_encoder_layers_5_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68231936)))]; - tensor model_encoder_layers_5_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68756288)))]; - tensor linear_49_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_v_weight_to_fp16, x = query_11_cast_fp16)[name = tensor("linear_49_cast_fp16")]; + tensor k_21_cast_fp16 = reshape(shape = var_1037, x = linear_48_cast_fp16)[name = tensor("k_21_cast_fp16")]; + tensor model_encoder_layers_5_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69747456)))]; + tensor model_encoder_layers_5_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70271808)))]; + tensor linear_49_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_v_weight_to_fp16, x = query_11_cast_fp16)[name = tensor("linear_49_cast_fp16")]; tensor var_1042 = const()[name = tensor("op_1042"), val = tensor([1, -1, 8, 64])]; - tensor v_11_cast_fp16 = reshape(shape = var_1042, x = linear_49_cast_fp16)[name = tensor("v_11_cast_fp16")]; + tensor v_11_cast_fp16 = reshape(shape = var_1042, x = linear_49_cast_fp16)[name = tensor("v_11_cast_fp16")]; tensor value_11_perm_0 = const()[name = tensor("value_11_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_5_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68757376)))]; - tensor var_1054_cast_fp16 = add(x = q_31_cast_fp16, y = model_encoder_layers_5_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1054_cast_fp16")]; - tensor model_encoder_layers_5_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68758464)))]; - tensor var_1056_cast_fp16 = add(x = q_31_cast_fp16, y = model_encoder_layers_5_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1056_cast_fp16")]; + tensor model_encoder_layers_5_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70272896)))]; + tensor var_1054_cast_fp16 = add(x = q_31_cast_fp16, y = model_encoder_layers_5_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1054_cast_fp16")]; + tensor model_encoder_layers_5_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70273984)))]; + tensor var_1056_cast_fp16 = add(x = q_31_cast_fp16, y = model_encoder_layers_5_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1056_cast_fp16")]; tensor q_with_bias_v_11_perm_0 = const()[name = tensor("q_with_bias_v_11_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_115_transpose_x_0 = const()[name = tensor("x_115_transpose_x_0"), val = tensor(false)]; tensor x_115_transpose_y_0 = const()[name = tensor("x_115_transpose_y_0"), val = tensor(false)]; - tensor var_1058_to_fp16 = const()[name = tensor("op_1058_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(68759552)))]; - tensor q_with_bias_v_11_cast_fp16 = transpose(perm = q_with_bias_v_11_perm_0, x = var_1056_cast_fp16)[name = tensor("transpose_275")]; - tensor x_115_cast_fp16 = matmul(transpose_x = x_115_transpose_x_0, transpose_y = x_115_transpose_y_0, x = q_with_bias_v_11_cast_fp16, y = var_1058_to_fp16)[name = tensor("x_115_cast_fp16")]; + tensor var_1058_to_fp16 = const()[name = tensor("op_1058_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70275072)))]; + tensor q_with_bias_v_11_cast_fp16 = transpose(perm = q_with_bias_v_11_perm_0, x = var_1056_cast_fp16)[name = tensor("transpose_275")]; + tensor x_115_cast_fp16 = matmul(transpose_x = x_115_transpose_x_0, transpose_y = x_115_transpose_y_0, x = q_with_bias_v_11_cast_fp16, y = var_1058_to_fp16)[name = tensor("x_115_cast_fp16")]; tensor x_117_pad_0 = const()[name = tensor("x_117_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_117_mode_0 = const()[name = tensor("x_117_mode_0"), val = tensor("constant")]; tensor const_62_to_fp16 = const()[name = tensor("const_62_to_fp16"), val = tensor(0x0p+0)]; - tensor x_117_cast_fp16 = pad(constant_val = const_62_to_fp16, mode = x_117_mode_0, pad = x_117_pad_0, x = x_115_cast_fp16)[name = tensor("x_117_cast_fp16")]; - tensor var_1066 = const()[name = tensor("op_1066"), val = tensor([1, 8, -1, 242])]; - tensor x_119_cast_fp16 = reshape(shape = var_1066, x = x_117_cast_fp16)[name = tensor("x_119_cast_fp16")]; + tensor x_117_cast_fp16 = pad(constant_val = const_62_to_fp16, mode = x_117_mode_0, pad = x_117_pad_0, x = x_115_cast_fp16)[name = tensor("x_117_cast_fp16")]; + tensor var_1066 = const()[name = tensor("op_1066"), val = tensor([1, 8, -1, 390])]; + tensor x_119_cast_fp16 = reshape(shape = var_1066, x = x_117_cast_fp16)[name = tensor("x_119_cast_fp16")]; tensor var_1070_begin_0 = const()[name = tensor("op_1070_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_1070_end_0 = const()[name = tensor("op_1070_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_1070_end_0 = const()[name = tensor("op_1070_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_1070_end_mask_0 = const()[name = tensor("op_1070_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_1070_cast_fp16 = slice_by_index(begin = var_1070_begin_0, end = var_1070_end_0, end_mask = var_1070_end_mask_0, x = x_119_cast_fp16)[name = tensor("op_1070_cast_fp16")]; - tensor var_1071 = const()[name = tensor("op_1071"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_21_cast_fp16 = reshape(shape = var_1071, x = var_1070_cast_fp16)[name = tensor("matrix_bd_21_cast_fp16")]; + tensor var_1070_cast_fp16 = slice_by_index(begin = var_1070_begin_0, end = var_1070_end_0, end_mask = var_1070_end_mask_0, x = x_119_cast_fp16)[name = tensor("op_1070_cast_fp16")]; + tensor var_1071 = const()[name = tensor("op_1071"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_21_cast_fp16 = reshape(shape = var_1071, x = var_1070_cast_fp16)[name = tensor("matrix_bd_21_cast_fp16")]; tensor matrix_ac_11_transpose_x_0 = const()[name = tensor("matrix_ac_11_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_11_transpose_y_0 = const()[name = tensor("matrix_ac_11_transpose_y_0"), val = tensor(false)]; tensor transpose_61_perm_0 = const()[name = tensor("transpose_61_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_62_perm_0 = const()[name = tensor("transpose_62_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_62 = transpose(perm = transpose_62_perm_0, x = k_21_cast_fp16)[name = tensor("transpose_273")]; - tensor transpose_61 = transpose(perm = transpose_61_perm_0, x = var_1054_cast_fp16)[name = tensor("transpose_274")]; - tensor matrix_ac_11_cast_fp16 = matmul(transpose_x = matrix_ac_11_transpose_x_0, transpose_y = matrix_ac_11_transpose_y_0, x = transpose_61, y = transpose_62)[name = tensor("matrix_ac_11_cast_fp16")]; + tensor transpose_62 = transpose(perm = transpose_62_perm_0, x = k_21_cast_fp16)[name = tensor("transpose_273")]; + tensor transpose_61 = transpose(perm = transpose_61_perm_0, x = var_1054_cast_fp16)[name = tensor("transpose_274")]; + tensor matrix_ac_11_cast_fp16 = matmul(transpose_x = matrix_ac_11_transpose_x_0, transpose_y = matrix_ac_11_transpose_y_0, x = transpose_61, y = transpose_62)[name = tensor("matrix_ac_11_cast_fp16")]; tensor matrix_bd_23_begin_0 = const()[name = tensor("matrix_bd_23_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_23_end_0 = const()[name = tensor("matrix_bd_23_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_23_end_0 = const()[name = tensor("matrix_bd_23_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_23_end_mask_0 = const()[name = tensor("matrix_bd_23_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_23_cast_fp16 = slice_by_index(begin = matrix_bd_23_begin_0, end = matrix_bd_23_end_0, end_mask = matrix_bd_23_end_mask_0, x = matrix_bd_21_cast_fp16)[name = tensor("matrix_bd_23_cast_fp16")]; - tensor var_1080_cast_fp16 = add(x = matrix_ac_11_cast_fp16, y = matrix_bd_23_cast_fp16)[name = tensor("op_1080_cast_fp16")]; + tensor matrix_bd_23_cast_fp16 = slice_by_index(begin = matrix_bd_23_begin_0, end = matrix_bd_23_end_0, end_mask = matrix_bd_23_end_mask_0, x = matrix_bd_21_cast_fp16)[name = tensor("matrix_bd_23_cast_fp16")]; + tensor var_1080_cast_fp16 = add(x = matrix_ac_11_cast_fp16, y = matrix_bd_23_cast_fp16)[name = tensor("op_1080_cast_fp16")]; tensor _inversed_scores_21_y_0_to_fp16 = const()[name = tensor("_inversed_scores_21_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_21_cast_fp16 = mul(x = var_1080_cast_fp16, y = _inversed_scores_21_y_0_to_fp16)[name = tensor("_inversed_scores_21_cast_fp16")]; - tensor scores_23_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_21_cast_fp16, cond = mask_3)[name = tensor("scores_23_cast_fp16")]; - tensor var_1086_cast_fp16 = softmax(axis = var_30, x = scores_23_cast_fp16)[name = tensor("op_1086_cast_fp16")]; - tensor input_275_cast_fp16 = select(a = var_21_to_fp16, b = var_1086_cast_fp16, cond = mask_3)[name = tensor("input_275_cast_fp16")]; + tensor _inversed_scores_21_cast_fp16 = mul(x = var_1080_cast_fp16, y = _inversed_scores_21_y_0_to_fp16)[name = tensor("_inversed_scores_21_cast_fp16")]; + tensor scores_23_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_21_cast_fp16, cond = mask_3)[name = tensor("scores_23_cast_fp16")]; + tensor var_1086_cast_fp16 = softmax(axis = var_30, x = scores_23_cast_fp16)[name = tensor("op_1086_cast_fp16")]; + tensor input_275_cast_fp16 = select(a = var_21_to_fp16, b = var_1086_cast_fp16, cond = mask_3)[name = tensor("input_275_cast_fp16")]; tensor x_121_transpose_x_0 = const()[name = tensor("x_121_transpose_x_0"), val = tensor(false)]; tensor x_121_transpose_y_0 = const()[name = tensor("x_121_transpose_y_0"), val = tensor(false)]; - tensor value_11_cast_fp16 = transpose(perm = value_11_perm_0, x = v_11_cast_fp16)[name = tensor("transpose_276")]; - tensor x_121_cast_fp16 = matmul(transpose_x = x_121_transpose_x_0, transpose_y = x_121_transpose_y_0, x = input_275_cast_fp16, y = value_11_cast_fp16)[name = tensor("x_121_cast_fp16")]; + tensor value_11_cast_fp16 = transpose(perm = value_11_perm_0, x = v_11_cast_fp16)[name = tensor("transpose_276")]; + tensor x_121_cast_fp16 = matmul(transpose_x = x_121_transpose_x_0, transpose_y = x_121_transpose_y_0, x = input_275_cast_fp16, y = value_11_cast_fp16)[name = tensor("x_121_cast_fp16")]; tensor var_1090_perm_0 = const()[name = tensor("op_1090_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_1091 = const()[name = tensor("op_1091"), val = tensor([1, -1, 512])]; - tensor var_1090_cast_fp16 = transpose(perm = var_1090_perm_0, x = x_121_cast_fp16)[name = tensor("transpose_272")]; - tensor input_277_cast_fp16 = reshape(shape = var_1091, x = var_1090_cast_fp16)[name = tensor("input_277_cast_fp16")]; - tensor model_encoder_layers_5_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69254208)))]; - tensor model_encoder_layers_5_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69778560)))]; - tensor linear_51_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_out_weight_to_fp16, x = input_277_cast_fp16)[name = tensor("linear_51_cast_fp16")]; - tensor input_281_cast_fp16 = add(x = input_273_cast_fp16, y = linear_51_cast_fp16)[name = tensor("input_281_cast_fp16")]; + tensor var_1090_cast_fp16 = transpose(perm = var_1090_perm_0, x = x_121_cast_fp16)[name = tensor("transpose_272")]; + tensor input_277_cast_fp16 = reshape(shape = var_1091, x = var_1090_cast_fp16)[name = tensor("input_277_cast_fp16")]; + tensor model_encoder_layers_5_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71072832)))]; + tensor model_encoder_layers_5_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71597184)))]; + tensor linear_51_cast_fp16 = linear(bias = model_encoder_layers_5_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_5_self_attn_linear_out_weight_to_fp16, x = input_277_cast_fp16)[name = tensor("linear_51_cast_fp16")]; + tensor input_281_cast_fp16 = add(x = input_273_cast_fp16, y = linear_51_cast_fp16)[name = tensor("input_281_cast_fp16")]; tensor x_125_axes_0 = const()[name = tensor("x_125_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_5_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69779648)))]; - tensor model_encoder_layers_5_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69780736)))]; - tensor x_125_cast_fp16 = layer_norm(axes = x_125_axes_0, beta = model_encoder_layers_5_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_conv_weight_to_fp16, x = input_281_cast_fp16)[name = tensor("x_125_cast_fp16")]; + tensor model_encoder_layers_5_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71598272)))]; + tensor model_encoder_layers_5_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71599360)))]; + tensor x_125_cast_fp16 = layer_norm(axes = x_125_axes_0, beta = model_encoder_layers_5_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_conv_weight_to_fp16, x = input_281_cast_fp16)[name = tensor("x_125_cast_fp16")]; tensor input_283_perm_0 = const()[name = tensor("input_283_perm_0"), val = tensor([0, 2, 1])]; tensor input_285_pad_type_0 = const()[name = tensor("input_285_pad_type_0"), val = tensor("valid")]; tensor input_285_strides_0 = const()[name = tensor("input_285_strides_0"), val = tensor([1])]; tensor input_285_pad_0 = const()[name = tensor("input_285_pad_0"), val = tensor([0, 0])]; tensor input_285_dilations_0 = const()[name = tensor("input_285_dilations_0"), val = tensor([1])]; tensor input_285_groups_0 = const()[name = tensor("input_285_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_5_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(69781824)))]; - tensor model_encoder_layers_5_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70830464)))]; - tensor input_283_cast_fp16 = transpose(perm = input_283_perm_0, x = x_125_cast_fp16)[name = tensor("transpose_271")]; - tensor input_285_cast_fp16 = conv(bias = model_encoder_layers_5_conv_pointwise_conv1_bias_to_fp16, dilations = input_285_dilations_0, groups = input_285_groups_0, pad = input_285_pad_0, pad_type = input_285_pad_type_0, strides = input_285_strides_0, weight = model_encoder_layers_5_conv_pointwise_conv1_weight_to_fp16, x = input_283_cast_fp16)[name = tensor("input_285_cast_fp16")]; + tensor model_encoder_layers_5_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71600448)))]; + tensor model_encoder_layers_5_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(72649088)))]; + tensor input_283_cast_fp16 = transpose(perm = input_283_perm_0, x = x_125_cast_fp16)[name = tensor("transpose_271")]; + tensor input_285_cast_fp16 = conv(bias = model_encoder_layers_5_conv_pointwise_conv1_bias_to_fp16, dilations = input_285_dilations_0, groups = input_285_groups_0, pad = input_285_pad_0, pad_type = input_285_pad_type_0, strides = input_285_strides_0, weight = model_encoder_layers_5_conv_pointwise_conv1_weight_to_fp16, x = input_283_cast_fp16)[name = tensor("input_285_cast_fp16")]; tensor x_127_split_num_splits_0 = const()[name = tensor("x_127_split_num_splits_0"), val = tensor(2)]; tensor x_127_split_axis_0 = const()[name = tensor("x_127_split_axis_0"), val = tensor(1)]; - tensor x_127_split_cast_fp16_0, tensor x_127_split_cast_fp16_1 = split(axis = x_127_split_axis_0, num_splits = x_127_split_num_splits_0, x = input_285_cast_fp16)[name = tensor("x_127_split_cast_fp16")]; - tensor x_127_split_1_sigmoid_cast_fp16 = sigmoid(x = x_127_split_cast_fp16_1)[name = tensor("x_127_split_1_sigmoid_cast_fp16")]; - tensor x_127_cast_fp16 = mul(x = x_127_split_cast_fp16_0, y = x_127_split_1_sigmoid_cast_fp16)[name = tensor("x_127_cast_fp16")]; - tensor input_287_cast_fp16 = select(a = var_21_to_fp16, b = x_127_cast_fp16, cond = var_245)[name = tensor("input_287_cast_fp16")]; + tensor x_127_split_cast_fp16_0, tensor x_127_split_cast_fp16_1 = split(axis = x_127_split_axis_0, num_splits = x_127_split_num_splits_0, x = input_285_cast_fp16)[name = tensor("x_127_split_cast_fp16")]; + tensor x_127_split_1_sigmoid_cast_fp16 = sigmoid(x = x_127_split_cast_fp16_1)[name = tensor("x_127_split_1_sigmoid_cast_fp16")]; + tensor x_127_cast_fp16 = mul(x = x_127_split_cast_fp16_0, y = x_127_split_1_sigmoid_cast_fp16)[name = tensor("x_127_cast_fp16")]; + tensor input_287_cast_fp16 = select(a = var_21_to_fp16, b = x_127_cast_fp16, cond = var_245)[name = tensor("input_287_cast_fp16")]; tensor input_289_pad_0 = const()[name = tensor("input_289_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_289_mode_0 = const()[name = tensor("input_289_mode_0"), val = tensor("constant")]; tensor const_65_to_fp16 = const()[name = tensor("const_65_to_fp16"), val = tensor(0x0p+0)]; - tensor input_289_cast_fp16 = pad(constant_val = const_65_to_fp16, mode = input_289_mode_0, pad = input_289_pad_0, x = input_287_cast_fp16)[name = tensor("input_289_cast_fp16")]; + tensor input_289_cast_fp16 = pad(constant_val = const_65_to_fp16, mode = input_289_mode_0, pad = input_289_pad_0, x = input_287_cast_fp16)[name = tensor("input_289_cast_fp16")]; tensor input_291_pad_type_0 = const()[name = tensor("input_291_pad_type_0"), val = tensor("valid")]; tensor input_291_groups_0 = const()[name = tensor("input_291_groups_0"), val = tensor(512)]; tensor input_291_strides_0 = const()[name = tensor("input_291_strides_0"), val = tensor([1])]; tensor input_291_pad_0 = const()[name = tensor("input_291_pad_0"), val = tensor([0, 0])]; tensor input_291_dilations_0 = const()[name = tensor("input_291_dilations_0"), val = tensor([1])]; - tensor const_352_to_fp16 = const()[name = tensor("const_352_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70832576)))]; - tensor const_353_to_fp16 = const()[name = tensor("const_353_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70841856)))]; - tensor input_293_cast_fp16 = conv(bias = const_353_to_fp16, dilations = input_291_dilations_0, groups = input_291_groups_0, pad = input_291_pad_0, pad_type = input_291_pad_type_0, strides = input_291_strides_0, weight = const_352_to_fp16, x = input_289_cast_fp16)[name = tensor("input_293_cast_fp16")]; - tensor input_295_cast_fp16 = silu(x = input_293_cast_fp16)[name = tensor("input_295_cast_fp16")]; + tensor const_352_to_fp16 = const()[name = tensor("const_352_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(72651200)))]; + tensor const_353_to_fp16 = const()[name = tensor("const_353_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(72660480)))]; + tensor input_293_cast_fp16 = conv(bias = const_353_to_fp16, dilations = input_291_dilations_0, groups = input_291_groups_0, pad = input_291_pad_0, pad_type = input_291_pad_type_0, strides = input_291_strides_0, weight = const_352_to_fp16, x = input_289_cast_fp16)[name = tensor("input_293_cast_fp16")]; + tensor input_295_cast_fp16 = silu(x = input_293_cast_fp16)[name = tensor("input_295_cast_fp16")]; tensor x_129_pad_type_0 = const()[name = tensor("x_129_pad_type_0"), val = tensor("valid")]; tensor x_129_strides_0 = const()[name = tensor("x_129_strides_0"), val = tensor([1])]; tensor x_129_pad_0 = const()[name = tensor("x_129_pad_0"), val = tensor([0, 0])]; tensor x_129_dilations_0 = const()[name = tensor("x_129_dilations_0"), val = tensor([1])]; tensor x_129_groups_0 = const()[name = tensor("x_129_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_5_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(70842944)))]; - tensor model_encoder_layers_5_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71367296)))]; - tensor x_129_cast_fp16 = conv(bias = model_encoder_layers_5_conv_pointwise_conv2_bias_to_fp16, dilations = x_129_dilations_0, groups = x_129_groups_0, pad = x_129_pad_0, pad_type = x_129_pad_type_0, strides = x_129_strides_0, weight = model_encoder_layers_5_conv_pointwise_conv2_weight_to_fp16, x = input_295_cast_fp16)[name = tensor("x_129_cast_fp16")]; + tensor model_encoder_layers_5_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(72661568)))]; + tensor model_encoder_layers_5_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(73185920)))]; + tensor x_129_cast_fp16 = conv(bias = model_encoder_layers_5_conv_pointwise_conv2_bias_to_fp16, dilations = x_129_dilations_0, groups = x_129_groups_0, pad = x_129_pad_0, pad_type = x_129_pad_type_0, strides = x_129_strides_0, weight = model_encoder_layers_5_conv_pointwise_conv2_weight_to_fp16, x = input_295_cast_fp16)[name = tensor("x_129_cast_fp16")]; tensor input_297_perm_0 = const()[name = tensor("input_297_perm_0"), val = tensor([0, 2, 1])]; - tensor input_297_cast_fp16 = transpose(perm = input_297_perm_0, x = x_129_cast_fp16)[name = tensor("transpose_270")]; - tensor input_299_cast_fp16 = add(x = input_281_cast_fp16, y = input_297_cast_fp16)[name = tensor("input_299_cast_fp16")]; + tensor input_297_cast_fp16 = transpose(perm = input_297_perm_0, x = x_129_cast_fp16)[name = tensor("transpose_270")]; + tensor input_299_cast_fp16 = add(x = input_281_cast_fp16, y = input_297_cast_fp16)[name = tensor("input_299_cast_fp16")]; tensor input_301_axes_0 = const()[name = tensor("input_301_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_5_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71368384)))]; - tensor model_encoder_layers_5_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71369472)))]; - tensor input_301_cast_fp16 = layer_norm(axes = input_301_axes_0, beta = model_encoder_layers_5_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_feed_forward2_weight_to_fp16, x = input_299_cast_fp16)[name = tensor("input_301_cast_fp16")]; - tensor model_encoder_layers_5_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(71370560)))]; - tensor model_encoder_layers_5_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(73467776)))]; - tensor linear_52_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_5_feed_forward2_linear1_weight_to_fp16, x = input_301_cast_fp16)[name = tensor("linear_52_cast_fp16")]; - tensor input_305_cast_fp16 = silu(x = linear_52_cast_fp16)[name = tensor("input_305_cast_fp16")]; - tensor model_encoder_layers_5_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(73471936)))]; - tensor model_encoder_layers_5_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75569152)))]; - tensor linear_53_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_5_feed_forward2_linear2_weight_to_fp16, x = input_305_cast_fp16)[name = tensor("linear_53_cast_fp16")]; + tensor model_encoder_layers_5_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(73187008)))]; + tensor model_encoder_layers_5_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(73188096)))]; + tensor input_301_cast_fp16 = layer_norm(axes = input_301_axes_0, beta = model_encoder_layers_5_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_feed_forward2_weight_to_fp16, x = input_299_cast_fp16)[name = tensor("input_301_cast_fp16")]; + tensor model_encoder_layers_5_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(73189184)))]; + tensor model_encoder_layers_5_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75286400)))]; + tensor linear_52_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_5_feed_forward2_linear1_weight_to_fp16, x = input_301_cast_fp16)[name = tensor("linear_52_cast_fp16")]; + tensor input_305_cast_fp16 = silu(x = linear_52_cast_fp16)[name = tensor("input_305_cast_fp16")]; + tensor model_encoder_layers_5_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75290560)))]; + tensor model_encoder_layers_5_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77387776)))]; + tensor linear_53_cast_fp16 = linear(bias = model_encoder_layers_5_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_5_feed_forward2_linear2_weight_to_fp16, x = input_305_cast_fp16)[name = tensor("linear_53_cast_fp16")]; tensor var_1157_to_fp16 = const()[name = tensor("op_1157_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1158_cast_fp16 = mul(x = linear_53_cast_fp16, y = var_1157_to_fp16)[name = tensor("op_1158_cast_fp16")]; - tensor input_311_cast_fp16 = add(x = input_299_cast_fp16, y = var_1158_cast_fp16)[name = tensor("input_311_cast_fp16")]; + tensor var_1158_cast_fp16 = mul(x = linear_53_cast_fp16, y = var_1157_to_fp16)[name = tensor("op_1158_cast_fp16")]; + tensor input_311_cast_fp16 = add(x = input_299_cast_fp16, y = var_1158_cast_fp16)[name = tensor("input_311_cast_fp16")]; tensor input_313_axes_0 = const()[name = tensor("input_313_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_5_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75570240)))]; - tensor model_encoder_layers_5_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75571328)))]; - tensor input_313_cast_fp16 = layer_norm(axes = input_313_axes_0, beta = model_encoder_layers_5_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_out_weight_to_fp16, x = input_311_cast_fp16)[name = tensor("input_313_cast_fp16")]; + tensor model_encoder_layers_5_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77388864)))]; + tensor model_encoder_layers_5_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_5_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77389952)))]; + tensor input_313_cast_fp16 = layer_norm(axes = input_313_axes_0, beta = model_encoder_layers_5_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_5_norm_out_weight_to_fp16, x = input_311_cast_fp16)[name = tensor("input_313_cast_fp16")]; tensor input_315_axes_0 = const()[name = tensor("input_315_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_6_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75572416)))]; - tensor model_encoder_layers_6_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75573504)))]; - tensor input_315_cast_fp16 = layer_norm(axes = input_315_axes_0, beta = model_encoder_layers_6_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_feed_forward1_weight_to_fp16, x = input_313_cast_fp16)[name = tensor("input_315_cast_fp16")]; - tensor model_encoder_layers_6_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(75574592)))]; - tensor model_encoder_layers_6_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77671808)))]; - tensor linear_54_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_6_feed_forward1_linear1_weight_to_fp16, x = input_315_cast_fp16)[name = tensor("linear_54_cast_fp16")]; - tensor input_319_cast_fp16 = silu(x = linear_54_cast_fp16)[name = tensor("input_319_cast_fp16")]; - tensor model_encoder_layers_6_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77675968)))]; - tensor model_encoder_layers_6_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(79773184)))]; - tensor linear_55_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_6_feed_forward1_linear2_weight_to_fp16, x = input_319_cast_fp16)[name = tensor("linear_55_cast_fp16")]; + tensor model_encoder_layers_6_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77391040)))]; + tensor model_encoder_layers_6_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77392128)))]; + tensor input_315_cast_fp16 = layer_norm(axes = input_315_axes_0, beta = model_encoder_layers_6_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_feed_forward1_weight_to_fp16, x = input_313_cast_fp16)[name = tensor("input_315_cast_fp16")]; + tensor model_encoder_layers_6_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(77393216)))]; + tensor model_encoder_layers_6_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(79490432)))]; + tensor linear_54_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_6_feed_forward1_linear1_weight_to_fp16, x = input_315_cast_fp16)[name = tensor("linear_54_cast_fp16")]; + tensor input_319_cast_fp16 = silu(x = linear_54_cast_fp16)[name = tensor("input_319_cast_fp16")]; + tensor model_encoder_layers_6_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(79494592)))]; + tensor model_encoder_layers_6_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81591808)))]; + tensor linear_55_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_6_feed_forward1_linear2_weight_to_fp16, x = input_319_cast_fp16)[name = tensor("linear_55_cast_fp16")]; tensor var_1188_to_fp16 = const()[name = tensor("op_1188_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1189_cast_fp16 = mul(x = linear_55_cast_fp16, y = var_1188_to_fp16)[name = tensor("op_1189_cast_fp16")]; - tensor input_325_cast_fp16 = add(x = input_313_cast_fp16, y = var_1189_cast_fp16)[name = tensor("input_325_cast_fp16")]; + tensor var_1189_cast_fp16 = mul(x = linear_55_cast_fp16, y = var_1188_to_fp16)[name = tensor("op_1189_cast_fp16")]; + tensor input_325_cast_fp16 = add(x = input_313_cast_fp16, y = var_1189_cast_fp16)[name = tensor("input_325_cast_fp16")]; tensor query_13_axes_0 = const()[name = tensor("query_13_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_6_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(79774272)))]; - tensor model_encoder_layers_6_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(79775360)))]; - tensor query_13_cast_fp16 = layer_norm(axes = query_13_axes_0, beta = model_encoder_layers_6_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_self_att_weight_to_fp16, x = input_325_cast_fp16)[name = tensor("query_13_cast_fp16")]; - tensor model_encoder_layers_6_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(79776448)))]; - tensor model_encoder_layers_6_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(80300800)))]; - tensor linear_56_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_q_weight_to_fp16, x = query_13_cast_fp16)[name = tensor("linear_56_cast_fp16")]; + tensor model_encoder_layers_6_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81592896)))]; + tensor model_encoder_layers_6_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81593984)))]; + tensor query_13_cast_fp16 = layer_norm(axes = query_13_axes_0, beta = model_encoder_layers_6_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_self_att_weight_to_fp16, x = input_325_cast_fp16)[name = tensor("query_13_cast_fp16")]; + tensor model_encoder_layers_6_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81595072)))]; + tensor model_encoder_layers_6_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82119424)))]; + tensor linear_56_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_q_weight_to_fp16, x = query_13_cast_fp16)[name = tensor("linear_56_cast_fp16")]; tensor var_1206 = const()[name = tensor("op_1206"), val = tensor([1, -1, 8, 64])]; - tensor q_37_cast_fp16 = reshape(shape = var_1206, x = linear_56_cast_fp16)[name = tensor("q_37_cast_fp16")]; - tensor model_encoder_layers_6_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(80301888)))]; - tensor model_encoder_layers_6_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(80826240)))]; - tensor linear_57_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_k_weight_to_fp16, x = query_13_cast_fp16)[name = tensor("linear_57_cast_fp16")]; + tensor q_37_cast_fp16 = reshape(shape = var_1206, x = linear_56_cast_fp16)[name = tensor("q_37_cast_fp16")]; + tensor model_encoder_layers_6_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82120512)))]; + tensor model_encoder_layers_6_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82644864)))]; + tensor linear_57_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_k_weight_to_fp16, x = query_13_cast_fp16)[name = tensor("linear_57_cast_fp16")]; tensor var_1211 = const()[name = tensor("op_1211"), val = tensor([1, -1, 8, 64])]; - tensor k_25_cast_fp16 = reshape(shape = var_1211, x = linear_57_cast_fp16)[name = tensor("k_25_cast_fp16")]; - tensor model_encoder_layers_6_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(80827328)))]; - tensor model_encoder_layers_6_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81351680)))]; - tensor linear_58_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_v_weight_to_fp16, x = query_13_cast_fp16)[name = tensor("linear_58_cast_fp16")]; + tensor k_25_cast_fp16 = reshape(shape = var_1211, x = linear_57_cast_fp16)[name = tensor("k_25_cast_fp16")]; + tensor model_encoder_layers_6_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82645952)))]; + tensor model_encoder_layers_6_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83170304)))]; + tensor linear_58_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_v_weight_to_fp16, x = query_13_cast_fp16)[name = tensor("linear_58_cast_fp16")]; tensor var_1216 = const()[name = tensor("op_1216"), val = tensor([1, -1, 8, 64])]; - tensor v_13_cast_fp16 = reshape(shape = var_1216, x = linear_58_cast_fp16)[name = tensor("v_13_cast_fp16")]; + tensor v_13_cast_fp16 = reshape(shape = var_1216, x = linear_58_cast_fp16)[name = tensor("v_13_cast_fp16")]; tensor value_13_perm_0 = const()[name = tensor("value_13_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_6_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81352768)))]; - tensor var_1228_cast_fp16 = add(x = q_37_cast_fp16, y = model_encoder_layers_6_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1228_cast_fp16")]; - tensor model_encoder_layers_6_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81353856)))]; - tensor var_1230_cast_fp16 = add(x = q_37_cast_fp16, y = model_encoder_layers_6_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1230_cast_fp16")]; + tensor model_encoder_layers_6_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83171392)))]; + tensor var_1228_cast_fp16 = add(x = q_37_cast_fp16, y = model_encoder_layers_6_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1228_cast_fp16")]; + tensor model_encoder_layers_6_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83172480)))]; + tensor var_1230_cast_fp16 = add(x = q_37_cast_fp16, y = model_encoder_layers_6_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1230_cast_fp16")]; tensor q_with_bias_v_13_perm_0 = const()[name = tensor("q_with_bias_v_13_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_137_transpose_x_0 = const()[name = tensor("x_137_transpose_x_0"), val = tensor(false)]; tensor x_137_transpose_y_0 = const()[name = tensor("x_137_transpose_y_0"), val = tensor(false)]; - tensor var_1232_to_fp16 = const()[name = tensor("op_1232_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81354944)))]; - tensor q_with_bias_v_13_cast_fp16 = transpose(perm = q_with_bias_v_13_perm_0, x = var_1230_cast_fp16)[name = tensor("transpose_268")]; - tensor x_137_cast_fp16 = matmul(transpose_x = x_137_transpose_x_0, transpose_y = x_137_transpose_y_0, x = q_with_bias_v_13_cast_fp16, y = var_1232_to_fp16)[name = tensor("x_137_cast_fp16")]; + tensor var_1232_to_fp16 = const()[name = tensor("op_1232_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83173568)))]; + tensor q_with_bias_v_13_cast_fp16 = transpose(perm = q_with_bias_v_13_perm_0, x = var_1230_cast_fp16)[name = tensor("transpose_268")]; + tensor x_137_cast_fp16 = matmul(transpose_x = x_137_transpose_x_0, transpose_y = x_137_transpose_y_0, x = q_with_bias_v_13_cast_fp16, y = var_1232_to_fp16)[name = tensor("x_137_cast_fp16")]; tensor x_139_pad_0 = const()[name = tensor("x_139_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_139_mode_0 = const()[name = tensor("x_139_mode_0"), val = tensor("constant")]; tensor const_72_to_fp16 = const()[name = tensor("const_72_to_fp16"), val = tensor(0x0p+0)]; - tensor x_139_cast_fp16 = pad(constant_val = const_72_to_fp16, mode = x_139_mode_0, pad = x_139_pad_0, x = x_137_cast_fp16)[name = tensor("x_139_cast_fp16")]; - tensor var_1240 = const()[name = tensor("op_1240"), val = tensor([1, 8, -1, 242])]; - tensor x_141_cast_fp16 = reshape(shape = var_1240, x = x_139_cast_fp16)[name = tensor("x_141_cast_fp16")]; + tensor x_139_cast_fp16 = pad(constant_val = const_72_to_fp16, mode = x_139_mode_0, pad = x_139_pad_0, x = x_137_cast_fp16)[name = tensor("x_139_cast_fp16")]; + tensor var_1240 = const()[name = tensor("op_1240"), val = tensor([1, 8, -1, 390])]; + tensor x_141_cast_fp16 = reshape(shape = var_1240, x = x_139_cast_fp16)[name = tensor("x_141_cast_fp16")]; tensor var_1244_begin_0 = const()[name = tensor("op_1244_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_1244_end_0 = const()[name = tensor("op_1244_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_1244_end_0 = const()[name = tensor("op_1244_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_1244_end_mask_0 = const()[name = tensor("op_1244_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_1244_cast_fp16 = slice_by_index(begin = var_1244_begin_0, end = var_1244_end_0, end_mask = var_1244_end_mask_0, x = x_141_cast_fp16)[name = tensor("op_1244_cast_fp16")]; - tensor var_1245 = const()[name = tensor("op_1245"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_25_cast_fp16 = reshape(shape = var_1245, x = var_1244_cast_fp16)[name = tensor("matrix_bd_25_cast_fp16")]; + tensor var_1244_cast_fp16 = slice_by_index(begin = var_1244_begin_0, end = var_1244_end_0, end_mask = var_1244_end_mask_0, x = x_141_cast_fp16)[name = tensor("op_1244_cast_fp16")]; + tensor var_1245 = const()[name = tensor("op_1245"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_25_cast_fp16 = reshape(shape = var_1245, x = var_1244_cast_fp16)[name = tensor("matrix_bd_25_cast_fp16")]; tensor matrix_ac_13_transpose_x_0 = const()[name = tensor("matrix_ac_13_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_13_transpose_y_0 = const()[name = tensor("matrix_ac_13_transpose_y_0"), val = tensor(false)]; tensor transpose_63_perm_0 = const()[name = tensor("transpose_63_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_64_perm_0 = const()[name = tensor("transpose_64_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_64 = transpose(perm = transpose_64_perm_0, x = k_25_cast_fp16)[name = tensor("transpose_266")]; - tensor transpose_63 = transpose(perm = transpose_63_perm_0, x = var_1228_cast_fp16)[name = tensor("transpose_267")]; - tensor matrix_ac_13_cast_fp16 = matmul(transpose_x = matrix_ac_13_transpose_x_0, transpose_y = matrix_ac_13_transpose_y_0, x = transpose_63, y = transpose_64)[name = tensor("matrix_ac_13_cast_fp16")]; + tensor transpose_64 = transpose(perm = transpose_64_perm_0, x = k_25_cast_fp16)[name = tensor("transpose_266")]; + tensor transpose_63 = transpose(perm = transpose_63_perm_0, x = var_1228_cast_fp16)[name = tensor("transpose_267")]; + tensor matrix_ac_13_cast_fp16 = matmul(transpose_x = matrix_ac_13_transpose_x_0, transpose_y = matrix_ac_13_transpose_y_0, x = transpose_63, y = transpose_64)[name = tensor("matrix_ac_13_cast_fp16")]; tensor matrix_bd_27_begin_0 = const()[name = tensor("matrix_bd_27_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_27_end_0 = const()[name = tensor("matrix_bd_27_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_27_end_0 = const()[name = tensor("matrix_bd_27_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_27_end_mask_0 = const()[name = tensor("matrix_bd_27_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_27_cast_fp16 = slice_by_index(begin = matrix_bd_27_begin_0, end = matrix_bd_27_end_0, end_mask = matrix_bd_27_end_mask_0, x = matrix_bd_25_cast_fp16)[name = tensor("matrix_bd_27_cast_fp16")]; - tensor var_1254_cast_fp16 = add(x = matrix_ac_13_cast_fp16, y = matrix_bd_27_cast_fp16)[name = tensor("op_1254_cast_fp16")]; + tensor matrix_bd_27_cast_fp16 = slice_by_index(begin = matrix_bd_27_begin_0, end = matrix_bd_27_end_0, end_mask = matrix_bd_27_end_mask_0, x = matrix_bd_25_cast_fp16)[name = tensor("matrix_bd_27_cast_fp16")]; + tensor var_1254_cast_fp16 = add(x = matrix_ac_13_cast_fp16, y = matrix_bd_27_cast_fp16)[name = tensor("op_1254_cast_fp16")]; tensor _inversed_scores_25_y_0_to_fp16 = const()[name = tensor("_inversed_scores_25_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_25_cast_fp16 = mul(x = var_1254_cast_fp16, y = _inversed_scores_25_y_0_to_fp16)[name = tensor("_inversed_scores_25_cast_fp16")]; - tensor scores_27_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_25_cast_fp16, cond = mask_3)[name = tensor("scores_27_cast_fp16")]; - tensor var_1260_cast_fp16 = softmax(axis = var_30, x = scores_27_cast_fp16)[name = tensor("op_1260_cast_fp16")]; - tensor input_327_cast_fp16 = select(a = var_21_to_fp16, b = var_1260_cast_fp16, cond = mask_3)[name = tensor("input_327_cast_fp16")]; + tensor _inversed_scores_25_cast_fp16 = mul(x = var_1254_cast_fp16, y = _inversed_scores_25_y_0_to_fp16)[name = tensor("_inversed_scores_25_cast_fp16")]; + tensor scores_27_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_25_cast_fp16, cond = mask_3)[name = tensor("scores_27_cast_fp16")]; + tensor var_1260_cast_fp16 = softmax(axis = var_30, x = scores_27_cast_fp16)[name = tensor("op_1260_cast_fp16")]; + tensor input_327_cast_fp16 = select(a = var_21_to_fp16, b = var_1260_cast_fp16, cond = mask_3)[name = tensor("input_327_cast_fp16")]; tensor x_143_transpose_x_0 = const()[name = tensor("x_143_transpose_x_0"), val = tensor(false)]; tensor x_143_transpose_y_0 = const()[name = tensor("x_143_transpose_y_0"), val = tensor(false)]; - tensor value_13_cast_fp16 = transpose(perm = value_13_perm_0, x = v_13_cast_fp16)[name = tensor("transpose_269")]; - tensor x_143_cast_fp16 = matmul(transpose_x = x_143_transpose_x_0, transpose_y = x_143_transpose_y_0, x = input_327_cast_fp16, y = value_13_cast_fp16)[name = tensor("x_143_cast_fp16")]; + tensor value_13_cast_fp16 = transpose(perm = value_13_perm_0, x = v_13_cast_fp16)[name = tensor("transpose_269")]; + tensor x_143_cast_fp16 = matmul(transpose_x = x_143_transpose_x_0, transpose_y = x_143_transpose_y_0, x = input_327_cast_fp16, y = value_13_cast_fp16)[name = tensor("x_143_cast_fp16")]; tensor var_1264_perm_0 = const()[name = tensor("op_1264_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_1265 = const()[name = tensor("op_1265"), val = tensor([1, -1, 512])]; - tensor var_1264_cast_fp16 = transpose(perm = var_1264_perm_0, x = x_143_cast_fp16)[name = tensor("transpose_265")]; - tensor input_329_cast_fp16 = reshape(shape = var_1265, x = var_1264_cast_fp16)[name = tensor("input_329_cast_fp16")]; - tensor model_encoder_layers_6_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(81849600)))]; - tensor model_encoder_layers_6_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82373952)))]; - tensor linear_60_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_out_weight_to_fp16, x = input_329_cast_fp16)[name = tensor("linear_60_cast_fp16")]; - tensor input_333_cast_fp16 = add(x = input_325_cast_fp16, y = linear_60_cast_fp16)[name = tensor("input_333_cast_fp16")]; + tensor var_1264_cast_fp16 = transpose(perm = var_1264_perm_0, x = x_143_cast_fp16)[name = tensor("transpose_265")]; + tensor input_329_cast_fp16 = reshape(shape = var_1265, x = var_1264_cast_fp16)[name = tensor("input_329_cast_fp16")]; + tensor model_encoder_layers_6_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83971328)))]; + tensor model_encoder_layers_6_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(84495680)))]; + tensor linear_60_cast_fp16 = linear(bias = model_encoder_layers_6_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_6_self_attn_linear_out_weight_to_fp16, x = input_329_cast_fp16)[name = tensor("linear_60_cast_fp16")]; + tensor input_333_cast_fp16 = add(x = input_325_cast_fp16, y = linear_60_cast_fp16)[name = tensor("input_333_cast_fp16")]; tensor x_147_axes_0 = const()[name = tensor("x_147_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_6_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82375040)))]; - tensor model_encoder_layers_6_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82376128)))]; - tensor x_147_cast_fp16 = layer_norm(axes = x_147_axes_0, beta = model_encoder_layers_6_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_conv_weight_to_fp16, x = input_333_cast_fp16)[name = tensor("x_147_cast_fp16")]; + tensor model_encoder_layers_6_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(84496768)))]; + tensor model_encoder_layers_6_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(84497856)))]; + tensor x_147_cast_fp16 = layer_norm(axes = x_147_axes_0, beta = model_encoder_layers_6_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_conv_weight_to_fp16, x = input_333_cast_fp16)[name = tensor("x_147_cast_fp16")]; tensor input_335_perm_0 = const()[name = tensor("input_335_perm_0"), val = tensor([0, 2, 1])]; tensor input_337_pad_type_0 = const()[name = tensor("input_337_pad_type_0"), val = tensor("valid")]; tensor input_337_strides_0 = const()[name = tensor("input_337_strides_0"), val = tensor([1])]; tensor input_337_pad_0 = const()[name = tensor("input_337_pad_0"), val = tensor([0, 0])]; tensor input_337_dilations_0 = const()[name = tensor("input_337_dilations_0"), val = tensor([1])]; tensor input_337_groups_0 = const()[name = tensor("input_337_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_6_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(82377216)))]; - tensor model_encoder_layers_6_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83425856)))]; - tensor input_335_cast_fp16 = transpose(perm = input_335_perm_0, x = x_147_cast_fp16)[name = tensor("transpose_264")]; - tensor input_337_cast_fp16 = conv(bias = model_encoder_layers_6_conv_pointwise_conv1_bias_to_fp16, dilations = input_337_dilations_0, groups = input_337_groups_0, pad = input_337_pad_0, pad_type = input_337_pad_type_0, strides = input_337_strides_0, weight = model_encoder_layers_6_conv_pointwise_conv1_weight_to_fp16, x = input_335_cast_fp16)[name = tensor("input_337_cast_fp16")]; + tensor model_encoder_layers_6_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(84498944)))]; + tensor model_encoder_layers_6_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(85547584)))]; + tensor input_335_cast_fp16 = transpose(perm = input_335_perm_0, x = x_147_cast_fp16)[name = tensor("transpose_264")]; + tensor input_337_cast_fp16 = conv(bias = model_encoder_layers_6_conv_pointwise_conv1_bias_to_fp16, dilations = input_337_dilations_0, groups = input_337_groups_0, pad = input_337_pad_0, pad_type = input_337_pad_type_0, strides = input_337_strides_0, weight = model_encoder_layers_6_conv_pointwise_conv1_weight_to_fp16, x = input_335_cast_fp16)[name = tensor("input_337_cast_fp16")]; tensor x_149_split_num_splits_0 = const()[name = tensor("x_149_split_num_splits_0"), val = tensor(2)]; tensor x_149_split_axis_0 = const()[name = tensor("x_149_split_axis_0"), val = tensor(1)]; - tensor x_149_split_cast_fp16_0, tensor x_149_split_cast_fp16_1 = split(axis = x_149_split_axis_0, num_splits = x_149_split_num_splits_0, x = input_337_cast_fp16)[name = tensor("x_149_split_cast_fp16")]; - tensor x_149_split_1_sigmoid_cast_fp16 = sigmoid(x = x_149_split_cast_fp16_1)[name = tensor("x_149_split_1_sigmoid_cast_fp16")]; - tensor x_149_cast_fp16 = mul(x = x_149_split_cast_fp16_0, y = x_149_split_1_sigmoid_cast_fp16)[name = tensor("x_149_cast_fp16")]; - tensor input_339_cast_fp16 = select(a = var_21_to_fp16, b = x_149_cast_fp16, cond = var_245)[name = tensor("input_339_cast_fp16")]; + tensor x_149_split_cast_fp16_0, tensor x_149_split_cast_fp16_1 = split(axis = x_149_split_axis_0, num_splits = x_149_split_num_splits_0, x = input_337_cast_fp16)[name = tensor("x_149_split_cast_fp16")]; + tensor x_149_split_1_sigmoid_cast_fp16 = sigmoid(x = x_149_split_cast_fp16_1)[name = tensor("x_149_split_1_sigmoid_cast_fp16")]; + tensor x_149_cast_fp16 = mul(x = x_149_split_cast_fp16_0, y = x_149_split_1_sigmoid_cast_fp16)[name = tensor("x_149_cast_fp16")]; + tensor input_339_cast_fp16 = select(a = var_21_to_fp16, b = x_149_cast_fp16, cond = var_245)[name = tensor("input_339_cast_fp16")]; tensor input_341_pad_0 = const()[name = tensor("input_341_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_341_mode_0 = const()[name = tensor("input_341_mode_0"), val = tensor("constant")]; tensor const_75_to_fp16 = const()[name = tensor("const_75_to_fp16"), val = tensor(0x0p+0)]; - tensor input_341_cast_fp16 = pad(constant_val = const_75_to_fp16, mode = input_341_mode_0, pad = input_341_pad_0, x = input_339_cast_fp16)[name = tensor("input_341_cast_fp16")]; + tensor input_341_cast_fp16 = pad(constant_val = const_75_to_fp16, mode = input_341_mode_0, pad = input_341_pad_0, x = input_339_cast_fp16)[name = tensor("input_341_cast_fp16")]; tensor input_343_pad_type_0 = const()[name = tensor("input_343_pad_type_0"), val = tensor("valid")]; tensor input_343_groups_0 = const()[name = tensor("input_343_groups_0"), val = tensor(512)]; tensor input_343_strides_0 = const()[name = tensor("input_343_strides_0"), val = tensor([1])]; tensor input_343_pad_0 = const()[name = tensor("input_343_pad_0"), val = tensor([0, 0])]; tensor input_343_dilations_0 = const()[name = tensor("input_343_dilations_0"), val = tensor([1])]; - tensor const_354_to_fp16 = const()[name = tensor("const_354_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83427968)))]; - tensor const_355_to_fp16 = const()[name = tensor("const_355_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83437248)))]; - tensor input_345_cast_fp16 = conv(bias = const_355_to_fp16, dilations = input_343_dilations_0, groups = input_343_groups_0, pad = input_343_pad_0, pad_type = input_343_pad_type_0, strides = input_343_strides_0, weight = const_354_to_fp16, x = input_341_cast_fp16)[name = tensor("input_345_cast_fp16")]; - tensor input_347_cast_fp16 = silu(x = input_345_cast_fp16)[name = tensor("input_347_cast_fp16")]; + tensor const_354_to_fp16 = const()[name = tensor("const_354_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(85549696)))]; + tensor const_355_to_fp16 = const()[name = tensor("const_355_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(85558976)))]; + tensor input_345_cast_fp16 = conv(bias = const_355_to_fp16, dilations = input_343_dilations_0, groups = input_343_groups_0, pad = input_343_pad_0, pad_type = input_343_pad_type_0, strides = input_343_strides_0, weight = const_354_to_fp16, x = input_341_cast_fp16)[name = tensor("input_345_cast_fp16")]; + tensor input_347_cast_fp16 = silu(x = input_345_cast_fp16)[name = tensor("input_347_cast_fp16")]; tensor x_151_pad_type_0 = const()[name = tensor("x_151_pad_type_0"), val = tensor("valid")]; tensor x_151_strides_0 = const()[name = tensor("x_151_strides_0"), val = tensor([1])]; tensor x_151_pad_0 = const()[name = tensor("x_151_pad_0"), val = tensor([0, 0])]; tensor x_151_dilations_0 = const()[name = tensor("x_151_dilations_0"), val = tensor([1])]; tensor x_151_groups_0 = const()[name = tensor("x_151_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_6_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83438336)))]; - tensor model_encoder_layers_6_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83962688)))]; - tensor x_151_cast_fp16 = conv(bias = model_encoder_layers_6_conv_pointwise_conv2_bias_to_fp16, dilations = x_151_dilations_0, groups = x_151_groups_0, pad = x_151_pad_0, pad_type = x_151_pad_type_0, strides = x_151_strides_0, weight = model_encoder_layers_6_conv_pointwise_conv2_weight_to_fp16, x = input_347_cast_fp16)[name = tensor("x_151_cast_fp16")]; + tensor model_encoder_layers_6_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(85560064)))]; + tensor model_encoder_layers_6_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(86084416)))]; + tensor x_151_cast_fp16 = conv(bias = model_encoder_layers_6_conv_pointwise_conv2_bias_to_fp16, dilations = x_151_dilations_0, groups = x_151_groups_0, pad = x_151_pad_0, pad_type = x_151_pad_type_0, strides = x_151_strides_0, weight = model_encoder_layers_6_conv_pointwise_conv2_weight_to_fp16, x = input_347_cast_fp16)[name = tensor("x_151_cast_fp16")]; tensor input_349_perm_0 = const()[name = tensor("input_349_perm_0"), val = tensor([0, 2, 1])]; - tensor input_349_cast_fp16 = transpose(perm = input_349_perm_0, x = x_151_cast_fp16)[name = tensor("transpose_263")]; - tensor input_351_cast_fp16 = add(x = input_333_cast_fp16, y = input_349_cast_fp16)[name = tensor("input_351_cast_fp16")]; + tensor input_349_cast_fp16 = transpose(perm = input_349_perm_0, x = x_151_cast_fp16)[name = tensor("transpose_263")]; + tensor input_351_cast_fp16 = add(x = input_333_cast_fp16, y = input_349_cast_fp16)[name = tensor("input_351_cast_fp16")]; tensor input_353_axes_0 = const()[name = tensor("input_353_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_6_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83963776)))]; - tensor model_encoder_layers_6_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83964864)))]; - tensor input_353_cast_fp16 = layer_norm(axes = input_353_axes_0, beta = model_encoder_layers_6_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_feed_forward2_weight_to_fp16, x = input_351_cast_fp16)[name = tensor("input_353_cast_fp16")]; - tensor model_encoder_layers_6_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(83965952)))]; - tensor model_encoder_layers_6_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(86063168)))]; - tensor linear_61_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_6_feed_forward2_linear1_weight_to_fp16, x = input_353_cast_fp16)[name = tensor("linear_61_cast_fp16")]; - tensor input_357_cast_fp16 = silu(x = linear_61_cast_fp16)[name = tensor("input_357_cast_fp16")]; - tensor model_encoder_layers_6_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(86067328)))]; - tensor model_encoder_layers_6_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88164544)))]; - tensor linear_62_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_6_feed_forward2_linear2_weight_to_fp16, x = input_357_cast_fp16)[name = tensor("linear_62_cast_fp16")]; + tensor model_encoder_layers_6_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(86085504)))]; + tensor model_encoder_layers_6_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(86086592)))]; + tensor input_353_cast_fp16 = layer_norm(axes = input_353_axes_0, beta = model_encoder_layers_6_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_feed_forward2_weight_to_fp16, x = input_351_cast_fp16)[name = tensor("input_353_cast_fp16")]; + tensor model_encoder_layers_6_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(86087680)))]; + tensor model_encoder_layers_6_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88184896)))]; + tensor linear_61_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_6_feed_forward2_linear1_weight_to_fp16, x = input_353_cast_fp16)[name = tensor("linear_61_cast_fp16")]; + tensor input_357_cast_fp16 = silu(x = linear_61_cast_fp16)[name = tensor("input_357_cast_fp16")]; + tensor model_encoder_layers_6_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88189056)))]; + tensor model_encoder_layers_6_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90286272)))]; + tensor linear_62_cast_fp16 = linear(bias = model_encoder_layers_6_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_6_feed_forward2_linear2_weight_to_fp16, x = input_357_cast_fp16)[name = tensor("linear_62_cast_fp16")]; tensor var_1331_to_fp16 = const()[name = tensor("op_1331_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1332_cast_fp16 = mul(x = linear_62_cast_fp16, y = var_1331_to_fp16)[name = tensor("op_1332_cast_fp16")]; - tensor input_363_cast_fp16 = add(x = input_351_cast_fp16, y = var_1332_cast_fp16)[name = tensor("input_363_cast_fp16")]; + tensor var_1332_cast_fp16 = mul(x = linear_62_cast_fp16, y = var_1331_to_fp16)[name = tensor("op_1332_cast_fp16")]; + tensor input_363_cast_fp16 = add(x = input_351_cast_fp16, y = var_1332_cast_fp16)[name = tensor("input_363_cast_fp16")]; tensor input_365_axes_0 = const()[name = tensor("input_365_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_6_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88165632)))]; - tensor model_encoder_layers_6_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88166720)))]; - tensor input_365_cast_fp16 = layer_norm(axes = input_365_axes_0, beta = model_encoder_layers_6_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_out_weight_to_fp16, x = input_363_cast_fp16)[name = tensor("input_365_cast_fp16")]; + tensor model_encoder_layers_6_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90287360)))]; + tensor model_encoder_layers_6_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_6_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90288448)))]; + tensor input_365_cast_fp16 = layer_norm(axes = input_365_axes_0, beta = model_encoder_layers_6_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_6_norm_out_weight_to_fp16, x = input_363_cast_fp16)[name = tensor("input_365_cast_fp16")]; tensor input_367_axes_0 = const()[name = tensor("input_367_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_7_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88167808)))]; - tensor model_encoder_layers_7_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88168896)))]; - tensor input_367_cast_fp16 = layer_norm(axes = input_367_axes_0, beta = model_encoder_layers_7_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_feed_forward1_weight_to_fp16, x = input_365_cast_fp16)[name = tensor("input_367_cast_fp16")]; - tensor model_encoder_layers_7_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(88169984)))]; - tensor model_encoder_layers_7_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90267200)))]; - tensor linear_63_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_7_feed_forward1_linear1_weight_to_fp16, x = input_367_cast_fp16)[name = tensor("linear_63_cast_fp16")]; - tensor input_371_cast_fp16 = silu(x = linear_63_cast_fp16)[name = tensor("input_371_cast_fp16")]; - tensor model_encoder_layers_7_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90271360)))]; - tensor model_encoder_layers_7_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92368576)))]; - tensor linear_64_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_7_feed_forward1_linear2_weight_to_fp16, x = input_371_cast_fp16)[name = tensor("linear_64_cast_fp16")]; + tensor model_encoder_layers_7_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90289536)))]; + tensor model_encoder_layers_7_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90290624)))]; + tensor input_367_cast_fp16 = layer_norm(axes = input_367_axes_0, beta = model_encoder_layers_7_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_feed_forward1_weight_to_fp16, x = input_365_cast_fp16)[name = tensor("input_367_cast_fp16")]; + tensor model_encoder_layers_7_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(90291712)))]; + tensor model_encoder_layers_7_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92388928)))]; + tensor linear_63_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_7_feed_forward1_linear1_weight_to_fp16, x = input_367_cast_fp16)[name = tensor("linear_63_cast_fp16")]; + tensor input_371_cast_fp16 = silu(x = linear_63_cast_fp16)[name = tensor("input_371_cast_fp16")]; + tensor model_encoder_layers_7_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92393088)))]; + tensor model_encoder_layers_7_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94490304)))]; + tensor linear_64_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_7_feed_forward1_linear2_weight_to_fp16, x = input_371_cast_fp16)[name = tensor("linear_64_cast_fp16")]; tensor var_1362_to_fp16 = const()[name = tensor("op_1362_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1363_cast_fp16 = mul(x = linear_64_cast_fp16, y = var_1362_to_fp16)[name = tensor("op_1363_cast_fp16")]; - tensor input_377_cast_fp16 = add(x = input_365_cast_fp16, y = var_1363_cast_fp16)[name = tensor("input_377_cast_fp16")]; + tensor var_1363_cast_fp16 = mul(x = linear_64_cast_fp16, y = var_1362_to_fp16)[name = tensor("op_1363_cast_fp16")]; + tensor input_377_cast_fp16 = add(x = input_365_cast_fp16, y = var_1363_cast_fp16)[name = tensor("input_377_cast_fp16")]; tensor query_15_axes_0 = const()[name = tensor("query_15_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_7_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92369664)))]; - tensor model_encoder_layers_7_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92370752)))]; - tensor query_15_cast_fp16 = layer_norm(axes = query_15_axes_0, beta = model_encoder_layers_7_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_self_att_weight_to_fp16, x = input_377_cast_fp16)[name = tensor("query_15_cast_fp16")]; - tensor model_encoder_layers_7_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92371840)))]; - tensor model_encoder_layers_7_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92896192)))]; - tensor linear_65_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_q_weight_to_fp16, x = query_15_cast_fp16)[name = tensor("linear_65_cast_fp16")]; + tensor model_encoder_layers_7_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94491392)))]; + tensor model_encoder_layers_7_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94492480)))]; + tensor query_15_cast_fp16 = layer_norm(axes = query_15_axes_0, beta = model_encoder_layers_7_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_self_att_weight_to_fp16, x = input_377_cast_fp16)[name = tensor("query_15_cast_fp16")]; + tensor model_encoder_layers_7_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94493568)))]; + tensor model_encoder_layers_7_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(95017920)))]; + tensor linear_65_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_q_weight_to_fp16, x = query_15_cast_fp16)[name = tensor("linear_65_cast_fp16")]; tensor var_1380 = const()[name = tensor("op_1380"), val = tensor([1, -1, 8, 64])]; - tensor q_43_cast_fp16 = reshape(shape = var_1380, x = linear_65_cast_fp16)[name = tensor("q_43_cast_fp16")]; - tensor model_encoder_layers_7_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(92897280)))]; - tensor model_encoder_layers_7_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(93421632)))]; - tensor linear_66_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_k_weight_to_fp16, x = query_15_cast_fp16)[name = tensor("linear_66_cast_fp16")]; + tensor q_43_cast_fp16 = reshape(shape = var_1380, x = linear_65_cast_fp16)[name = tensor("q_43_cast_fp16")]; + tensor model_encoder_layers_7_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(95019008)))]; + tensor model_encoder_layers_7_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(95543360)))]; + tensor linear_66_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_k_weight_to_fp16, x = query_15_cast_fp16)[name = tensor("linear_66_cast_fp16")]; tensor var_1385 = const()[name = tensor("op_1385"), val = tensor([1, -1, 8, 64])]; - tensor k_29_cast_fp16 = reshape(shape = var_1385, x = linear_66_cast_fp16)[name = tensor("k_29_cast_fp16")]; - tensor model_encoder_layers_7_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(93422720)))]; - tensor model_encoder_layers_7_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(93947072)))]; - tensor linear_67_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_v_weight_to_fp16, x = query_15_cast_fp16)[name = tensor("linear_67_cast_fp16")]; + tensor k_29_cast_fp16 = reshape(shape = var_1385, x = linear_66_cast_fp16)[name = tensor("k_29_cast_fp16")]; + tensor model_encoder_layers_7_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(95544448)))]; + tensor model_encoder_layers_7_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96068800)))]; + tensor linear_67_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_v_weight_to_fp16, x = query_15_cast_fp16)[name = tensor("linear_67_cast_fp16")]; tensor var_1390 = const()[name = tensor("op_1390"), val = tensor([1, -1, 8, 64])]; - tensor v_15_cast_fp16 = reshape(shape = var_1390, x = linear_67_cast_fp16)[name = tensor("v_15_cast_fp16")]; + tensor v_15_cast_fp16 = reshape(shape = var_1390, x = linear_67_cast_fp16)[name = tensor("v_15_cast_fp16")]; tensor value_15_perm_0 = const()[name = tensor("value_15_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_7_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(93948160)))]; - tensor var_1402_cast_fp16 = add(x = q_43_cast_fp16, y = model_encoder_layers_7_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1402_cast_fp16")]; - tensor model_encoder_layers_7_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(93949248)))]; - tensor var_1404_cast_fp16 = add(x = q_43_cast_fp16, y = model_encoder_layers_7_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1404_cast_fp16")]; + tensor model_encoder_layers_7_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96069888)))]; + tensor var_1402_cast_fp16 = add(x = q_43_cast_fp16, y = model_encoder_layers_7_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1402_cast_fp16")]; + tensor model_encoder_layers_7_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96070976)))]; + tensor var_1404_cast_fp16 = add(x = q_43_cast_fp16, y = model_encoder_layers_7_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1404_cast_fp16")]; tensor q_with_bias_v_15_perm_0 = const()[name = tensor("q_with_bias_v_15_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_159_transpose_x_0 = const()[name = tensor("x_159_transpose_x_0"), val = tensor(false)]; tensor x_159_transpose_y_0 = const()[name = tensor("x_159_transpose_y_0"), val = tensor(false)]; - tensor var_1406_to_fp16 = const()[name = tensor("op_1406_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(93950336)))]; - tensor q_with_bias_v_15_cast_fp16 = transpose(perm = q_with_bias_v_15_perm_0, x = var_1404_cast_fp16)[name = tensor("transpose_261")]; - tensor x_159_cast_fp16 = matmul(transpose_x = x_159_transpose_x_0, transpose_y = x_159_transpose_y_0, x = q_with_bias_v_15_cast_fp16, y = var_1406_to_fp16)[name = tensor("x_159_cast_fp16")]; + tensor var_1406_to_fp16 = const()[name = tensor("op_1406_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96072064)))]; + tensor q_with_bias_v_15_cast_fp16 = transpose(perm = q_with_bias_v_15_perm_0, x = var_1404_cast_fp16)[name = tensor("transpose_261")]; + tensor x_159_cast_fp16 = matmul(transpose_x = x_159_transpose_x_0, transpose_y = x_159_transpose_y_0, x = q_with_bias_v_15_cast_fp16, y = var_1406_to_fp16)[name = tensor("x_159_cast_fp16")]; tensor x_161_pad_0 = const()[name = tensor("x_161_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_161_mode_0 = const()[name = tensor("x_161_mode_0"), val = tensor("constant")]; tensor const_82_to_fp16 = const()[name = tensor("const_82_to_fp16"), val = tensor(0x0p+0)]; - tensor x_161_cast_fp16 = pad(constant_val = const_82_to_fp16, mode = x_161_mode_0, pad = x_161_pad_0, x = x_159_cast_fp16)[name = tensor("x_161_cast_fp16")]; - tensor var_1414 = const()[name = tensor("op_1414"), val = tensor([1, 8, -1, 242])]; - tensor x_163_cast_fp16 = reshape(shape = var_1414, x = x_161_cast_fp16)[name = tensor("x_163_cast_fp16")]; + tensor x_161_cast_fp16 = pad(constant_val = const_82_to_fp16, mode = x_161_mode_0, pad = x_161_pad_0, x = x_159_cast_fp16)[name = tensor("x_161_cast_fp16")]; + tensor var_1414 = const()[name = tensor("op_1414"), val = tensor([1, 8, -1, 390])]; + tensor x_163_cast_fp16 = reshape(shape = var_1414, x = x_161_cast_fp16)[name = tensor("x_163_cast_fp16")]; tensor var_1418_begin_0 = const()[name = tensor("op_1418_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_1418_end_0 = const()[name = tensor("op_1418_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_1418_end_0 = const()[name = tensor("op_1418_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_1418_end_mask_0 = const()[name = tensor("op_1418_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_1418_cast_fp16 = slice_by_index(begin = var_1418_begin_0, end = var_1418_end_0, end_mask = var_1418_end_mask_0, x = x_163_cast_fp16)[name = tensor("op_1418_cast_fp16")]; - tensor var_1419 = const()[name = tensor("op_1419"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_29_cast_fp16 = reshape(shape = var_1419, x = var_1418_cast_fp16)[name = tensor("matrix_bd_29_cast_fp16")]; + tensor var_1418_cast_fp16 = slice_by_index(begin = var_1418_begin_0, end = var_1418_end_0, end_mask = var_1418_end_mask_0, x = x_163_cast_fp16)[name = tensor("op_1418_cast_fp16")]; + tensor var_1419 = const()[name = tensor("op_1419"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_29_cast_fp16 = reshape(shape = var_1419, x = var_1418_cast_fp16)[name = tensor("matrix_bd_29_cast_fp16")]; tensor matrix_ac_15_transpose_x_0 = const()[name = tensor("matrix_ac_15_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_15_transpose_y_0 = const()[name = tensor("matrix_ac_15_transpose_y_0"), val = tensor(false)]; tensor transpose_65_perm_0 = const()[name = tensor("transpose_65_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_66_perm_0 = const()[name = tensor("transpose_66_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_66 = transpose(perm = transpose_66_perm_0, x = k_29_cast_fp16)[name = tensor("transpose_259")]; - tensor transpose_65 = transpose(perm = transpose_65_perm_0, x = var_1402_cast_fp16)[name = tensor("transpose_260")]; - tensor matrix_ac_15_cast_fp16 = matmul(transpose_x = matrix_ac_15_transpose_x_0, transpose_y = matrix_ac_15_transpose_y_0, x = transpose_65, y = transpose_66)[name = tensor("matrix_ac_15_cast_fp16")]; + tensor transpose_66 = transpose(perm = transpose_66_perm_0, x = k_29_cast_fp16)[name = tensor("transpose_259")]; + tensor transpose_65 = transpose(perm = transpose_65_perm_0, x = var_1402_cast_fp16)[name = tensor("transpose_260")]; + tensor matrix_ac_15_cast_fp16 = matmul(transpose_x = matrix_ac_15_transpose_x_0, transpose_y = matrix_ac_15_transpose_y_0, x = transpose_65, y = transpose_66)[name = tensor("matrix_ac_15_cast_fp16")]; tensor matrix_bd_31_begin_0 = const()[name = tensor("matrix_bd_31_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_31_end_0 = const()[name = tensor("matrix_bd_31_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_31_end_0 = const()[name = tensor("matrix_bd_31_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_31_end_mask_0 = const()[name = tensor("matrix_bd_31_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_31_cast_fp16 = slice_by_index(begin = matrix_bd_31_begin_0, end = matrix_bd_31_end_0, end_mask = matrix_bd_31_end_mask_0, x = matrix_bd_29_cast_fp16)[name = tensor("matrix_bd_31_cast_fp16")]; - tensor var_1428_cast_fp16 = add(x = matrix_ac_15_cast_fp16, y = matrix_bd_31_cast_fp16)[name = tensor("op_1428_cast_fp16")]; + tensor matrix_bd_31_cast_fp16 = slice_by_index(begin = matrix_bd_31_begin_0, end = matrix_bd_31_end_0, end_mask = matrix_bd_31_end_mask_0, x = matrix_bd_29_cast_fp16)[name = tensor("matrix_bd_31_cast_fp16")]; + tensor var_1428_cast_fp16 = add(x = matrix_ac_15_cast_fp16, y = matrix_bd_31_cast_fp16)[name = tensor("op_1428_cast_fp16")]; tensor _inversed_scores_29_y_0_to_fp16 = const()[name = tensor("_inversed_scores_29_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_29_cast_fp16 = mul(x = var_1428_cast_fp16, y = _inversed_scores_29_y_0_to_fp16)[name = tensor("_inversed_scores_29_cast_fp16")]; - tensor scores_31_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_29_cast_fp16, cond = mask_3)[name = tensor("scores_31_cast_fp16")]; - tensor var_1434_cast_fp16 = softmax(axis = var_30, x = scores_31_cast_fp16)[name = tensor("op_1434_cast_fp16")]; - tensor input_379_cast_fp16 = select(a = var_21_to_fp16, b = var_1434_cast_fp16, cond = mask_3)[name = tensor("input_379_cast_fp16")]; + tensor _inversed_scores_29_cast_fp16 = mul(x = var_1428_cast_fp16, y = _inversed_scores_29_y_0_to_fp16)[name = tensor("_inversed_scores_29_cast_fp16")]; + tensor scores_31_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_29_cast_fp16, cond = mask_3)[name = tensor("scores_31_cast_fp16")]; + tensor var_1434_cast_fp16 = softmax(axis = var_30, x = scores_31_cast_fp16)[name = tensor("op_1434_cast_fp16")]; + tensor input_379_cast_fp16 = select(a = var_21_to_fp16, b = var_1434_cast_fp16, cond = mask_3)[name = tensor("input_379_cast_fp16")]; tensor x_165_transpose_x_0 = const()[name = tensor("x_165_transpose_x_0"), val = tensor(false)]; tensor x_165_transpose_y_0 = const()[name = tensor("x_165_transpose_y_0"), val = tensor(false)]; - tensor value_15_cast_fp16 = transpose(perm = value_15_perm_0, x = v_15_cast_fp16)[name = tensor("transpose_262")]; - tensor x_165_cast_fp16 = matmul(transpose_x = x_165_transpose_x_0, transpose_y = x_165_transpose_y_0, x = input_379_cast_fp16, y = value_15_cast_fp16)[name = tensor("x_165_cast_fp16")]; + tensor value_15_cast_fp16 = transpose(perm = value_15_perm_0, x = v_15_cast_fp16)[name = tensor("transpose_262")]; + tensor x_165_cast_fp16 = matmul(transpose_x = x_165_transpose_x_0, transpose_y = x_165_transpose_y_0, x = input_379_cast_fp16, y = value_15_cast_fp16)[name = tensor("x_165_cast_fp16")]; tensor var_1438_perm_0 = const()[name = tensor("op_1438_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_1439 = const()[name = tensor("op_1439"), val = tensor([1, -1, 512])]; - tensor var_1438_cast_fp16 = transpose(perm = var_1438_perm_0, x = x_165_cast_fp16)[name = tensor("transpose_258")]; - tensor input_381_cast_fp16 = reshape(shape = var_1439, x = var_1438_cast_fp16)[name = tensor("input_381_cast_fp16")]; - tensor model_encoder_layers_7_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94444992)))]; - tensor model_encoder_layers_7_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94969344)))]; - tensor linear_69_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_out_weight_to_fp16, x = input_381_cast_fp16)[name = tensor("linear_69_cast_fp16")]; - tensor input_385_cast_fp16 = add(x = input_377_cast_fp16, y = linear_69_cast_fp16)[name = tensor("input_385_cast_fp16")]; + tensor var_1438_cast_fp16 = transpose(perm = var_1438_perm_0, x = x_165_cast_fp16)[name = tensor("transpose_258")]; + tensor input_381_cast_fp16 = reshape(shape = var_1439, x = var_1438_cast_fp16)[name = tensor("input_381_cast_fp16")]; + tensor model_encoder_layers_7_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96869824)))]; + tensor model_encoder_layers_7_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(97394176)))]; + tensor linear_69_cast_fp16 = linear(bias = model_encoder_layers_7_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_7_self_attn_linear_out_weight_to_fp16, x = input_381_cast_fp16)[name = tensor("linear_69_cast_fp16")]; + tensor input_385_cast_fp16 = add(x = input_377_cast_fp16, y = linear_69_cast_fp16)[name = tensor("input_385_cast_fp16")]; tensor x_169_axes_0 = const()[name = tensor("x_169_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_7_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94970432)))]; - tensor model_encoder_layers_7_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94971520)))]; - tensor x_169_cast_fp16 = layer_norm(axes = x_169_axes_0, beta = model_encoder_layers_7_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_conv_weight_to_fp16, x = input_385_cast_fp16)[name = tensor("x_169_cast_fp16")]; + tensor model_encoder_layers_7_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(97395264)))]; + tensor model_encoder_layers_7_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(97396352)))]; + tensor x_169_cast_fp16 = layer_norm(axes = x_169_axes_0, beta = model_encoder_layers_7_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_conv_weight_to_fp16, x = input_385_cast_fp16)[name = tensor("x_169_cast_fp16")]; tensor input_387_perm_0 = const()[name = tensor("input_387_perm_0"), val = tensor([0, 2, 1])]; tensor input_389_pad_type_0 = const()[name = tensor("input_389_pad_type_0"), val = tensor("valid")]; tensor input_389_strides_0 = const()[name = tensor("input_389_strides_0"), val = tensor([1])]; tensor input_389_pad_0 = const()[name = tensor("input_389_pad_0"), val = tensor([0, 0])]; tensor input_389_dilations_0 = const()[name = tensor("input_389_dilations_0"), val = tensor([1])]; tensor input_389_groups_0 = const()[name = tensor("input_389_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_7_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(94972608)))]; - tensor model_encoder_layers_7_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96021248)))]; - tensor input_387_cast_fp16 = transpose(perm = input_387_perm_0, x = x_169_cast_fp16)[name = tensor("transpose_257")]; - tensor input_389_cast_fp16 = conv(bias = model_encoder_layers_7_conv_pointwise_conv1_bias_to_fp16, dilations = input_389_dilations_0, groups = input_389_groups_0, pad = input_389_pad_0, pad_type = input_389_pad_type_0, strides = input_389_strides_0, weight = model_encoder_layers_7_conv_pointwise_conv1_weight_to_fp16, x = input_387_cast_fp16)[name = tensor("input_389_cast_fp16")]; + tensor model_encoder_layers_7_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(97397440)))]; + tensor model_encoder_layers_7_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98446080)))]; + tensor input_387_cast_fp16 = transpose(perm = input_387_perm_0, x = x_169_cast_fp16)[name = tensor("transpose_257")]; + tensor input_389_cast_fp16 = conv(bias = model_encoder_layers_7_conv_pointwise_conv1_bias_to_fp16, dilations = input_389_dilations_0, groups = input_389_groups_0, pad = input_389_pad_0, pad_type = input_389_pad_type_0, strides = input_389_strides_0, weight = model_encoder_layers_7_conv_pointwise_conv1_weight_to_fp16, x = input_387_cast_fp16)[name = tensor("input_389_cast_fp16")]; tensor x_171_split_num_splits_0 = const()[name = tensor("x_171_split_num_splits_0"), val = tensor(2)]; tensor x_171_split_axis_0 = const()[name = tensor("x_171_split_axis_0"), val = tensor(1)]; - tensor x_171_split_cast_fp16_0, tensor x_171_split_cast_fp16_1 = split(axis = x_171_split_axis_0, num_splits = x_171_split_num_splits_0, x = input_389_cast_fp16)[name = tensor("x_171_split_cast_fp16")]; - tensor x_171_split_1_sigmoid_cast_fp16 = sigmoid(x = x_171_split_cast_fp16_1)[name = tensor("x_171_split_1_sigmoid_cast_fp16")]; - tensor x_171_cast_fp16 = mul(x = x_171_split_cast_fp16_0, y = x_171_split_1_sigmoid_cast_fp16)[name = tensor("x_171_cast_fp16")]; - tensor input_391_cast_fp16 = select(a = var_21_to_fp16, b = x_171_cast_fp16, cond = var_245)[name = tensor("input_391_cast_fp16")]; + tensor x_171_split_cast_fp16_0, tensor x_171_split_cast_fp16_1 = split(axis = x_171_split_axis_0, num_splits = x_171_split_num_splits_0, x = input_389_cast_fp16)[name = tensor("x_171_split_cast_fp16")]; + tensor x_171_split_1_sigmoid_cast_fp16 = sigmoid(x = x_171_split_cast_fp16_1)[name = tensor("x_171_split_1_sigmoid_cast_fp16")]; + tensor x_171_cast_fp16 = mul(x = x_171_split_cast_fp16_0, y = x_171_split_1_sigmoid_cast_fp16)[name = tensor("x_171_cast_fp16")]; + tensor input_391_cast_fp16 = select(a = var_21_to_fp16, b = x_171_cast_fp16, cond = var_245)[name = tensor("input_391_cast_fp16")]; tensor input_393_pad_0 = const()[name = tensor("input_393_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_393_mode_0 = const()[name = tensor("input_393_mode_0"), val = tensor("constant")]; tensor const_85_to_fp16 = const()[name = tensor("const_85_to_fp16"), val = tensor(0x0p+0)]; - tensor input_393_cast_fp16 = pad(constant_val = const_85_to_fp16, mode = input_393_mode_0, pad = input_393_pad_0, x = input_391_cast_fp16)[name = tensor("input_393_cast_fp16")]; + tensor input_393_cast_fp16 = pad(constant_val = const_85_to_fp16, mode = input_393_mode_0, pad = input_393_pad_0, x = input_391_cast_fp16)[name = tensor("input_393_cast_fp16")]; tensor input_395_pad_type_0 = const()[name = tensor("input_395_pad_type_0"), val = tensor("valid")]; tensor input_395_groups_0 = const()[name = tensor("input_395_groups_0"), val = tensor(512)]; tensor input_395_strides_0 = const()[name = tensor("input_395_strides_0"), val = tensor([1])]; tensor input_395_pad_0 = const()[name = tensor("input_395_pad_0"), val = tensor([0, 0])]; tensor input_395_dilations_0 = const()[name = tensor("input_395_dilations_0"), val = tensor([1])]; - tensor const_356_to_fp16 = const()[name = tensor("const_356_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96023360)))]; - tensor const_357_to_fp16 = const()[name = tensor("const_357_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96032640)))]; - tensor input_397_cast_fp16 = conv(bias = const_357_to_fp16, dilations = input_395_dilations_0, groups = input_395_groups_0, pad = input_395_pad_0, pad_type = input_395_pad_type_0, strides = input_395_strides_0, weight = const_356_to_fp16, x = input_393_cast_fp16)[name = tensor("input_397_cast_fp16")]; - tensor input_399_cast_fp16 = silu(x = input_397_cast_fp16)[name = tensor("input_399_cast_fp16")]; + tensor const_356_to_fp16 = const()[name = tensor("const_356_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98448192)))]; + tensor const_357_to_fp16 = const()[name = tensor("const_357_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98457472)))]; + tensor input_397_cast_fp16 = conv(bias = const_357_to_fp16, dilations = input_395_dilations_0, groups = input_395_groups_0, pad = input_395_pad_0, pad_type = input_395_pad_type_0, strides = input_395_strides_0, weight = const_356_to_fp16, x = input_393_cast_fp16)[name = tensor("input_397_cast_fp16")]; + tensor input_399_cast_fp16 = silu(x = input_397_cast_fp16)[name = tensor("input_399_cast_fp16")]; tensor x_173_pad_type_0 = const()[name = tensor("x_173_pad_type_0"), val = tensor("valid")]; tensor x_173_strides_0 = const()[name = tensor("x_173_strides_0"), val = tensor([1])]; tensor x_173_pad_0 = const()[name = tensor("x_173_pad_0"), val = tensor([0, 0])]; tensor x_173_dilations_0 = const()[name = tensor("x_173_dilations_0"), val = tensor([1])]; tensor x_173_groups_0 = const()[name = tensor("x_173_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_7_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96033728)))]; - tensor model_encoder_layers_7_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96558080)))]; - tensor x_173_cast_fp16 = conv(bias = model_encoder_layers_7_conv_pointwise_conv2_bias_to_fp16, dilations = x_173_dilations_0, groups = x_173_groups_0, pad = x_173_pad_0, pad_type = x_173_pad_type_0, strides = x_173_strides_0, weight = model_encoder_layers_7_conv_pointwise_conv2_weight_to_fp16, x = input_399_cast_fp16)[name = tensor("x_173_cast_fp16")]; + tensor model_encoder_layers_7_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98458560)))]; + tensor model_encoder_layers_7_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98982912)))]; + tensor x_173_cast_fp16 = conv(bias = model_encoder_layers_7_conv_pointwise_conv2_bias_to_fp16, dilations = x_173_dilations_0, groups = x_173_groups_0, pad = x_173_pad_0, pad_type = x_173_pad_type_0, strides = x_173_strides_0, weight = model_encoder_layers_7_conv_pointwise_conv2_weight_to_fp16, x = input_399_cast_fp16)[name = tensor("x_173_cast_fp16")]; tensor input_401_perm_0 = const()[name = tensor("input_401_perm_0"), val = tensor([0, 2, 1])]; - tensor input_401_cast_fp16 = transpose(perm = input_401_perm_0, x = x_173_cast_fp16)[name = tensor("transpose_256")]; - tensor input_403_cast_fp16 = add(x = input_385_cast_fp16, y = input_401_cast_fp16)[name = tensor("input_403_cast_fp16")]; + tensor input_401_cast_fp16 = transpose(perm = input_401_perm_0, x = x_173_cast_fp16)[name = tensor("transpose_256")]; + tensor input_403_cast_fp16 = add(x = input_385_cast_fp16, y = input_401_cast_fp16)[name = tensor("input_403_cast_fp16")]; tensor input_405_axes_0 = const()[name = tensor("input_405_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_7_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96559168)))]; - tensor model_encoder_layers_7_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96560256)))]; - tensor input_405_cast_fp16 = layer_norm(axes = input_405_axes_0, beta = model_encoder_layers_7_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_feed_forward2_weight_to_fp16, x = input_403_cast_fp16)[name = tensor("input_405_cast_fp16")]; - tensor model_encoder_layers_7_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(96561344)))]; - tensor model_encoder_layers_7_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98658560)))]; - tensor linear_70_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_7_feed_forward2_linear1_weight_to_fp16, x = input_405_cast_fp16)[name = tensor("linear_70_cast_fp16")]; - tensor input_409_cast_fp16 = silu(x = linear_70_cast_fp16)[name = tensor("input_409_cast_fp16")]; - tensor model_encoder_layers_7_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98662720)))]; - tensor model_encoder_layers_7_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(100759936)))]; - tensor linear_71_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_7_feed_forward2_linear2_weight_to_fp16, x = input_409_cast_fp16)[name = tensor("linear_71_cast_fp16")]; + tensor model_encoder_layers_7_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98984000)))]; + tensor model_encoder_layers_7_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98985088)))]; + tensor input_405_cast_fp16 = layer_norm(axes = input_405_axes_0, beta = model_encoder_layers_7_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_feed_forward2_weight_to_fp16, x = input_403_cast_fp16)[name = tensor("input_405_cast_fp16")]; + tensor model_encoder_layers_7_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(98986176)))]; + tensor model_encoder_layers_7_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(101083392)))]; + tensor linear_70_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_7_feed_forward2_linear1_weight_to_fp16, x = input_405_cast_fp16)[name = tensor("linear_70_cast_fp16")]; + tensor input_409_cast_fp16 = silu(x = linear_70_cast_fp16)[name = tensor("input_409_cast_fp16")]; + tensor model_encoder_layers_7_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(101087552)))]; + tensor model_encoder_layers_7_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(103184768)))]; + tensor linear_71_cast_fp16 = linear(bias = model_encoder_layers_7_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_7_feed_forward2_linear2_weight_to_fp16, x = input_409_cast_fp16)[name = tensor("linear_71_cast_fp16")]; tensor var_1505_to_fp16 = const()[name = tensor("op_1505_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1506_cast_fp16 = mul(x = linear_71_cast_fp16, y = var_1505_to_fp16)[name = tensor("op_1506_cast_fp16")]; - tensor input_415_cast_fp16 = add(x = input_403_cast_fp16, y = var_1506_cast_fp16)[name = tensor("input_415_cast_fp16")]; + tensor var_1506_cast_fp16 = mul(x = linear_71_cast_fp16, y = var_1505_to_fp16)[name = tensor("op_1506_cast_fp16")]; + tensor input_415_cast_fp16 = add(x = input_403_cast_fp16, y = var_1506_cast_fp16)[name = tensor("input_415_cast_fp16")]; tensor input_417_axes_0 = const()[name = tensor("input_417_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_7_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(100761024)))]; - tensor model_encoder_layers_7_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(100762112)))]; - tensor input_417_cast_fp16 = layer_norm(axes = input_417_axes_0, beta = model_encoder_layers_7_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_out_weight_to_fp16, x = input_415_cast_fp16)[name = tensor("input_417_cast_fp16")]; + tensor model_encoder_layers_7_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(103185856)))]; + tensor model_encoder_layers_7_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_7_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(103186944)))]; + tensor input_417_cast_fp16 = layer_norm(axes = input_417_axes_0, beta = model_encoder_layers_7_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_7_norm_out_weight_to_fp16, x = input_415_cast_fp16)[name = tensor("input_417_cast_fp16")]; tensor input_419_axes_0 = const()[name = tensor("input_419_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_8_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(100763200)))]; - tensor model_encoder_layers_8_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(100764288)))]; - tensor input_419_cast_fp16 = layer_norm(axes = input_419_axes_0, beta = model_encoder_layers_8_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_feed_forward1_weight_to_fp16, x = input_417_cast_fp16)[name = tensor("input_419_cast_fp16")]; - tensor model_encoder_layers_8_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(100765376)))]; - tensor model_encoder_layers_8_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(102862592)))]; - tensor linear_72_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_8_feed_forward1_linear1_weight_to_fp16, x = input_419_cast_fp16)[name = tensor("linear_72_cast_fp16")]; - tensor input_423_cast_fp16 = silu(x = linear_72_cast_fp16)[name = tensor("input_423_cast_fp16")]; - tensor model_encoder_layers_8_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(102866752)))]; - tensor model_encoder_layers_8_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(104963968)))]; - tensor linear_73_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_8_feed_forward1_linear2_weight_to_fp16, x = input_423_cast_fp16)[name = tensor("linear_73_cast_fp16")]; + tensor model_encoder_layers_8_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(103188032)))]; + tensor model_encoder_layers_8_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(103189120)))]; + tensor input_419_cast_fp16 = layer_norm(axes = input_419_axes_0, beta = model_encoder_layers_8_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_feed_forward1_weight_to_fp16, x = input_417_cast_fp16)[name = tensor("input_419_cast_fp16")]; + tensor model_encoder_layers_8_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(103190208)))]; + tensor model_encoder_layers_8_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(105287424)))]; + tensor linear_72_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_8_feed_forward1_linear1_weight_to_fp16, x = input_419_cast_fp16)[name = tensor("linear_72_cast_fp16")]; + tensor input_423_cast_fp16 = silu(x = linear_72_cast_fp16)[name = tensor("input_423_cast_fp16")]; + tensor model_encoder_layers_8_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(105291584)))]; + tensor model_encoder_layers_8_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107388800)))]; + tensor linear_73_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_8_feed_forward1_linear2_weight_to_fp16, x = input_423_cast_fp16)[name = tensor("linear_73_cast_fp16")]; tensor var_1536_to_fp16 = const()[name = tensor("op_1536_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1537_cast_fp16 = mul(x = linear_73_cast_fp16, y = var_1536_to_fp16)[name = tensor("op_1537_cast_fp16")]; - tensor input_429_cast_fp16 = add(x = input_417_cast_fp16, y = var_1537_cast_fp16)[name = tensor("input_429_cast_fp16")]; + tensor var_1537_cast_fp16 = mul(x = linear_73_cast_fp16, y = var_1536_to_fp16)[name = tensor("op_1537_cast_fp16")]; + tensor input_429_cast_fp16 = add(x = input_417_cast_fp16, y = var_1537_cast_fp16)[name = tensor("input_429_cast_fp16")]; tensor query_17_axes_0 = const()[name = tensor("query_17_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_8_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(104965056)))]; - tensor model_encoder_layers_8_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(104966144)))]; - tensor query_17_cast_fp16 = layer_norm(axes = query_17_axes_0, beta = model_encoder_layers_8_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_self_att_weight_to_fp16, x = input_429_cast_fp16)[name = tensor("query_17_cast_fp16")]; - tensor model_encoder_layers_8_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(104967232)))]; - tensor model_encoder_layers_8_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(105491584)))]; - tensor linear_74_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_q_weight_to_fp16, x = query_17_cast_fp16)[name = tensor("linear_74_cast_fp16")]; + tensor model_encoder_layers_8_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107389888)))]; + tensor model_encoder_layers_8_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107390976)))]; + tensor query_17_cast_fp16 = layer_norm(axes = query_17_axes_0, beta = model_encoder_layers_8_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_self_att_weight_to_fp16, x = input_429_cast_fp16)[name = tensor("query_17_cast_fp16")]; + tensor model_encoder_layers_8_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107392064)))]; + tensor model_encoder_layers_8_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107916416)))]; + tensor linear_74_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_q_weight_to_fp16, x = query_17_cast_fp16)[name = tensor("linear_74_cast_fp16")]; tensor var_1554 = const()[name = tensor("op_1554"), val = tensor([1, -1, 8, 64])]; - tensor q_49_cast_fp16 = reshape(shape = var_1554, x = linear_74_cast_fp16)[name = tensor("q_49_cast_fp16")]; - tensor model_encoder_layers_8_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(105492672)))]; - tensor model_encoder_layers_8_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(106017024)))]; - tensor linear_75_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_k_weight_to_fp16, x = query_17_cast_fp16)[name = tensor("linear_75_cast_fp16")]; + tensor q_49_cast_fp16 = reshape(shape = var_1554, x = linear_74_cast_fp16)[name = tensor("q_49_cast_fp16")]; + tensor model_encoder_layers_8_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107917504)))]; + tensor model_encoder_layers_8_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108441856)))]; + tensor linear_75_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_k_weight_to_fp16, x = query_17_cast_fp16)[name = tensor("linear_75_cast_fp16")]; tensor var_1559 = const()[name = tensor("op_1559"), val = tensor([1, -1, 8, 64])]; - tensor k_33_cast_fp16 = reshape(shape = var_1559, x = linear_75_cast_fp16)[name = tensor("k_33_cast_fp16")]; - tensor model_encoder_layers_8_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(106018112)))]; - tensor model_encoder_layers_8_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(106542464)))]; - tensor linear_76_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_v_weight_to_fp16, x = query_17_cast_fp16)[name = tensor("linear_76_cast_fp16")]; + tensor k_33_cast_fp16 = reshape(shape = var_1559, x = linear_75_cast_fp16)[name = tensor("k_33_cast_fp16")]; + tensor model_encoder_layers_8_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108442944)))]; + tensor model_encoder_layers_8_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108967296)))]; + tensor linear_76_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_v_weight_to_fp16, x = query_17_cast_fp16)[name = tensor("linear_76_cast_fp16")]; tensor var_1564 = const()[name = tensor("op_1564"), val = tensor([1, -1, 8, 64])]; - tensor v_17_cast_fp16 = reshape(shape = var_1564, x = linear_76_cast_fp16)[name = tensor("v_17_cast_fp16")]; + tensor v_17_cast_fp16 = reshape(shape = var_1564, x = linear_76_cast_fp16)[name = tensor("v_17_cast_fp16")]; tensor value_17_perm_0 = const()[name = tensor("value_17_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_8_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(106543552)))]; - tensor var_1576_cast_fp16 = add(x = q_49_cast_fp16, y = model_encoder_layers_8_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1576_cast_fp16")]; - tensor model_encoder_layers_8_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(106544640)))]; - tensor var_1578_cast_fp16 = add(x = q_49_cast_fp16, y = model_encoder_layers_8_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1578_cast_fp16")]; + tensor model_encoder_layers_8_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108968384)))]; + tensor var_1576_cast_fp16 = add(x = q_49_cast_fp16, y = model_encoder_layers_8_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1576_cast_fp16")]; + tensor model_encoder_layers_8_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108969472)))]; + tensor var_1578_cast_fp16 = add(x = q_49_cast_fp16, y = model_encoder_layers_8_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1578_cast_fp16")]; tensor q_with_bias_v_17_perm_0 = const()[name = tensor("q_with_bias_v_17_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_181_transpose_x_0 = const()[name = tensor("x_181_transpose_x_0"), val = tensor(false)]; tensor x_181_transpose_y_0 = const()[name = tensor("x_181_transpose_y_0"), val = tensor(false)]; - tensor var_1580_to_fp16 = const()[name = tensor("op_1580_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(106545728)))]; - tensor q_with_bias_v_17_cast_fp16 = transpose(perm = q_with_bias_v_17_perm_0, x = var_1578_cast_fp16)[name = tensor("transpose_254")]; - tensor x_181_cast_fp16 = matmul(transpose_x = x_181_transpose_x_0, transpose_y = x_181_transpose_y_0, x = q_with_bias_v_17_cast_fp16, y = var_1580_to_fp16)[name = tensor("x_181_cast_fp16")]; + tensor var_1580_to_fp16 = const()[name = tensor("op_1580_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108970560)))]; + tensor q_with_bias_v_17_cast_fp16 = transpose(perm = q_with_bias_v_17_perm_0, x = var_1578_cast_fp16)[name = tensor("transpose_254")]; + tensor x_181_cast_fp16 = matmul(transpose_x = x_181_transpose_x_0, transpose_y = x_181_transpose_y_0, x = q_with_bias_v_17_cast_fp16, y = var_1580_to_fp16)[name = tensor("x_181_cast_fp16")]; tensor x_183_pad_0 = const()[name = tensor("x_183_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_183_mode_0 = const()[name = tensor("x_183_mode_0"), val = tensor("constant")]; tensor const_92_to_fp16 = const()[name = tensor("const_92_to_fp16"), val = tensor(0x0p+0)]; - tensor x_183_cast_fp16 = pad(constant_val = const_92_to_fp16, mode = x_183_mode_0, pad = x_183_pad_0, x = x_181_cast_fp16)[name = tensor("x_183_cast_fp16")]; - tensor var_1588 = const()[name = tensor("op_1588"), val = tensor([1, 8, -1, 242])]; - tensor x_185_cast_fp16 = reshape(shape = var_1588, x = x_183_cast_fp16)[name = tensor("x_185_cast_fp16")]; + tensor x_183_cast_fp16 = pad(constant_val = const_92_to_fp16, mode = x_183_mode_0, pad = x_183_pad_0, x = x_181_cast_fp16)[name = tensor("x_183_cast_fp16")]; + tensor var_1588 = const()[name = tensor("op_1588"), val = tensor([1, 8, -1, 390])]; + tensor x_185_cast_fp16 = reshape(shape = var_1588, x = x_183_cast_fp16)[name = tensor("x_185_cast_fp16")]; tensor var_1592_begin_0 = const()[name = tensor("op_1592_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_1592_end_0 = const()[name = tensor("op_1592_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_1592_end_0 = const()[name = tensor("op_1592_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_1592_end_mask_0 = const()[name = tensor("op_1592_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_1592_cast_fp16 = slice_by_index(begin = var_1592_begin_0, end = var_1592_end_0, end_mask = var_1592_end_mask_0, x = x_185_cast_fp16)[name = tensor("op_1592_cast_fp16")]; - tensor var_1593 = const()[name = tensor("op_1593"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_33_cast_fp16 = reshape(shape = var_1593, x = var_1592_cast_fp16)[name = tensor("matrix_bd_33_cast_fp16")]; + tensor var_1592_cast_fp16 = slice_by_index(begin = var_1592_begin_0, end = var_1592_end_0, end_mask = var_1592_end_mask_0, x = x_185_cast_fp16)[name = tensor("op_1592_cast_fp16")]; + tensor var_1593 = const()[name = tensor("op_1593"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_33_cast_fp16 = reshape(shape = var_1593, x = var_1592_cast_fp16)[name = tensor("matrix_bd_33_cast_fp16")]; tensor matrix_ac_17_transpose_x_0 = const()[name = tensor("matrix_ac_17_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_17_transpose_y_0 = const()[name = tensor("matrix_ac_17_transpose_y_0"), val = tensor(false)]; tensor transpose_67_perm_0 = const()[name = tensor("transpose_67_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_68_perm_0 = const()[name = tensor("transpose_68_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_68 = transpose(perm = transpose_68_perm_0, x = k_33_cast_fp16)[name = tensor("transpose_252")]; - tensor transpose_67 = transpose(perm = transpose_67_perm_0, x = var_1576_cast_fp16)[name = tensor("transpose_253")]; - tensor matrix_ac_17_cast_fp16 = matmul(transpose_x = matrix_ac_17_transpose_x_0, transpose_y = matrix_ac_17_transpose_y_0, x = transpose_67, y = transpose_68)[name = tensor("matrix_ac_17_cast_fp16")]; + tensor transpose_68 = transpose(perm = transpose_68_perm_0, x = k_33_cast_fp16)[name = tensor("transpose_252")]; + tensor transpose_67 = transpose(perm = transpose_67_perm_0, x = var_1576_cast_fp16)[name = tensor("transpose_253")]; + tensor matrix_ac_17_cast_fp16 = matmul(transpose_x = matrix_ac_17_transpose_x_0, transpose_y = matrix_ac_17_transpose_y_0, x = transpose_67, y = transpose_68)[name = tensor("matrix_ac_17_cast_fp16")]; tensor matrix_bd_35_begin_0 = const()[name = tensor("matrix_bd_35_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_35_end_0 = const()[name = tensor("matrix_bd_35_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_35_end_0 = const()[name = tensor("matrix_bd_35_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_35_end_mask_0 = const()[name = tensor("matrix_bd_35_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_35_cast_fp16 = slice_by_index(begin = matrix_bd_35_begin_0, end = matrix_bd_35_end_0, end_mask = matrix_bd_35_end_mask_0, x = matrix_bd_33_cast_fp16)[name = tensor("matrix_bd_35_cast_fp16")]; - tensor var_1602_cast_fp16 = add(x = matrix_ac_17_cast_fp16, y = matrix_bd_35_cast_fp16)[name = tensor("op_1602_cast_fp16")]; + tensor matrix_bd_35_cast_fp16 = slice_by_index(begin = matrix_bd_35_begin_0, end = matrix_bd_35_end_0, end_mask = matrix_bd_35_end_mask_0, x = matrix_bd_33_cast_fp16)[name = tensor("matrix_bd_35_cast_fp16")]; + tensor var_1602_cast_fp16 = add(x = matrix_ac_17_cast_fp16, y = matrix_bd_35_cast_fp16)[name = tensor("op_1602_cast_fp16")]; tensor _inversed_scores_33_y_0_to_fp16 = const()[name = tensor("_inversed_scores_33_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_33_cast_fp16 = mul(x = var_1602_cast_fp16, y = _inversed_scores_33_y_0_to_fp16)[name = tensor("_inversed_scores_33_cast_fp16")]; - tensor scores_35_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_33_cast_fp16, cond = mask_3)[name = tensor("scores_35_cast_fp16")]; - tensor var_1608_cast_fp16 = softmax(axis = var_30, x = scores_35_cast_fp16)[name = tensor("op_1608_cast_fp16")]; - tensor input_431_cast_fp16 = select(a = var_21_to_fp16, b = var_1608_cast_fp16, cond = mask_3)[name = tensor("input_431_cast_fp16")]; + tensor _inversed_scores_33_cast_fp16 = mul(x = var_1602_cast_fp16, y = _inversed_scores_33_y_0_to_fp16)[name = tensor("_inversed_scores_33_cast_fp16")]; + tensor scores_35_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_33_cast_fp16, cond = mask_3)[name = tensor("scores_35_cast_fp16")]; + tensor var_1608_cast_fp16 = softmax(axis = var_30, x = scores_35_cast_fp16)[name = tensor("op_1608_cast_fp16")]; + tensor input_431_cast_fp16 = select(a = var_21_to_fp16, b = var_1608_cast_fp16, cond = mask_3)[name = tensor("input_431_cast_fp16")]; tensor x_187_transpose_x_0 = const()[name = tensor("x_187_transpose_x_0"), val = tensor(false)]; tensor x_187_transpose_y_0 = const()[name = tensor("x_187_transpose_y_0"), val = tensor(false)]; - tensor value_17_cast_fp16 = transpose(perm = value_17_perm_0, x = v_17_cast_fp16)[name = tensor("transpose_255")]; - tensor x_187_cast_fp16 = matmul(transpose_x = x_187_transpose_x_0, transpose_y = x_187_transpose_y_0, x = input_431_cast_fp16, y = value_17_cast_fp16)[name = tensor("x_187_cast_fp16")]; + tensor value_17_cast_fp16 = transpose(perm = value_17_perm_0, x = v_17_cast_fp16)[name = tensor("transpose_255")]; + tensor x_187_cast_fp16 = matmul(transpose_x = x_187_transpose_x_0, transpose_y = x_187_transpose_y_0, x = input_431_cast_fp16, y = value_17_cast_fp16)[name = tensor("x_187_cast_fp16")]; tensor var_1612_perm_0 = const()[name = tensor("op_1612_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_1613 = const()[name = tensor("op_1613"), val = tensor([1, -1, 512])]; - tensor var_1612_cast_fp16 = transpose(perm = var_1612_perm_0, x = x_187_cast_fp16)[name = tensor("transpose_251")]; - tensor input_433_cast_fp16 = reshape(shape = var_1613, x = var_1612_cast_fp16)[name = tensor("input_433_cast_fp16")]; - tensor model_encoder_layers_8_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107040384)))]; - tensor model_encoder_layers_8_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107564736)))]; - tensor linear_78_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_out_weight_to_fp16, x = input_433_cast_fp16)[name = tensor("linear_78_cast_fp16")]; - tensor input_437_cast_fp16 = add(x = input_429_cast_fp16, y = linear_78_cast_fp16)[name = tensor("input_437_cast_fp16")]; + tensor var_1612_cast_fp16 = transpose(perm = var_1612_perm_0, x = x_187_cast_fp16)[name = tensor("transpose_251")]; + tensor input_433_cast_fp16 = reshape(shape = var_1613, x = var_1612_cast_fp16)[name = tensor("input_433_cast_fp16")]; + tensor model_encoder_layers_8_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(109768320)))]; + tensor model_encoder_layers_8_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(110292672)))]; + tensor linear_78_cast_fp16 = linear(bias = model_encoder_layers_8_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_8_self_attn_linear_out_weight_to_fp16, x = input_433_cast_fp16)[name = tensor("linear_78_cast_fp16")]; + tensor input_437_cast_fp16 = add(x = input_429_cast_fp16, y = linear_78_cast_fp16)[name = tensor("input_437_cast_fp16")]; tensor x_191_axes_0 = const()[name = tensor("x_191_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_8_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107565824)))]; - tensor model_encoder_layers_8_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107566912)))]; - tensor x_191_cast_fp16 = layer_norm(axes = x_191_axes_0, beta = model_encoder_layers_8_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_conv_weight_to_fp16, x = input_437_cast_fp16)[name = tensor("x_191_cast_fp16")]; + tensor model_encoder_layers_8_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(110293760)))]; + tensor model_encoder_layers_8_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(110294848)))]; + tensor x_191_cast_fp16 = layer_norm(axes = x_191_axes_0, beta = model_encoder_layers_8_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_conv_weight_to_fp16, x = input_437_cast_fp16)[name = tensor("x_191_cast_fp16")]; tensor input_439_perm_0 = const()[name = tensor("input_439_perm_0"), val = tensor([0, 2, 1])]; tensor input_441_pad_type_0 = const()[name = tensor("input_441_pad_type_0"), val = tensor("valid")]; tensor input_441_strides_0 = const()[name = tensor("input_441_strides_0"), val = tensor([1])]; tensor input_441_pad_0 = const()[name = tensor("input_441_pad_0"), val = tensor([0, 0])]; tensor input_441_dilations_0 = const()[name = tensor("input_441_dilations_0"), val = tensor([1])]; tensor input_441_groups_0 = const()[name = tensor("input_441_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_8_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(107568000)))]; - tensor model_encoder_layers_8_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108616640)))]; - tensor input_439_cast_fp16 = transpose(perm = input_439_perm_0, x = x_191_cast_fp16)[name = tensor("transpose_250")]; - tensor input_441_cast_fp16 = conv(bias = model_encoder_layers_8_conv_pointwise_conv1_bias_to_fp16, dilations = input_441_dilations_0, groups = input_441_groups_0, pad = input_441_pad_0, pad_type = input_441_pad_type_0, strides = input_441_strides_0, weight = model_encoder_layers_8_conv_pointwise_conv1_weight_to_fp16, x = input_439_cast_fp16)[name = tensor("input_441_cast_fp16")]; + tensor model_encoder_layers_8_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(110295936)))]; + tensor model_encoder_layers_8_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111344576)))]; + tensor input_439_cast_fp16 = transpose(perm = input_439_perm_0, x = x_191_cast_fp16)[name = tensor("transpose_250")]; + tensor input_441_cast_fp16 = conv(bias = model_encoder_layers_8_conv_pointwise_conv1_bias_to_fp16, dilations = input_441_dilations_0, groups = input_441_groups_0, pad = input_441_pad_0, pad_type = input_441_pad_type_0, strides = input_441_strides_0, weight = model_encoder_layers_8_conv_pointwise_conv1_weight_to_fp16, x = input_439_cast_fp16)[name = tensor("input_441_cast_fp16")]; tensor x_193_split_num_splits_0 = const()[name = tensor("x_193_split_num_splits_0"), val = tensor(2)]; tensor x_193_split_axis_0 = const()[name = tensor("x_193_split_axis_0"), val = tensor(1)]; - tensor x_193_split_cast_fp16_0, tensor x_193_split_cast_fp16_1 = split(axis = x_193_split_axis_0, num_splits = x_193_split_num_splits_0, x = input_441_cast_fp16)[name = tensor("x_193_split_cast_fp16")]; - tensor x_193_split_1_sigmoid_cast_fp16 = sigmoid(x = x_193_split_cast_fp16_1)[name = tensor("x_193_split_1_sigmoid_cast_fp16")]; - tensor x_193_cast_fp16 = mul(x = x_193_split_cast_fp16_0, y = x_193_split_1_sigmoid_cast_fp16)[name = tensor("x_193_cast_fp16")]; - tensor input_443_cast_fp16 = select(a = var_21_to_fp16, b = x_193_cast_fp16, cond = var_245)[name = tensor("input_443_cast_fp16")]; + tensor x_193_split_cast_fp16_0, tensor x_193_split_cast_fp16_1 = split(axis = x_193_split_axis_0, num_splits = x_193_split_num_splits_0, x = input_441_cast_fp16)[name = tensor("x_193_split_cast_fp16")]; + tensor x_193_split_1_sigmoid_cast_fp16 = sigmoid(x = x_193_split_cast_fp16_1)[name = tensor("x_193_split_1_sigmoid_cast_fp16")]; + tensor x_193_cast_fp16 = mul(x = x_193_split_cast_fp16_0, y = x_193_split_1_sigmoid_cast_fp16)[name = tensor("x_193_cast_fp16")]; + tensor input_443_cast_fp16 = select(a = var_21_to_fp16, b = x_193_cast_fp16, cond = var_245)[name = tensor("input_443_cast_fp16")]; tensor input_445_pad_0 = const()[name = tensor("input_445_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_445_mode_0 = const()[name = tensor("input_445_mode_0"), val = tensor("constant")]; tensor const_95_to_fp16 = const()[name = tensor("const_95_to_fp16"), val = tensor(0x0p+0)]; - tensor input_445_cast_fp16 = pad(constant_val = const_95_to_fp16, mode = input_445_mode_0, pad = input_445_pad_0, x = input_443_cast_fp16)[name = tensor("input_445_cast_fp16")]; + tensor input_445_cast_fp16 = pad(constant_val = const_95_to_fp16, mode = input_445_mode_0, pad = input_445_pad_0, x = input_443_cast_fp16)[name = tensor("input_445_cast_fp16")]; tensor input_447_pad_type_0 = const()[name = tensor("input_447_pad_type_0"), val = tensor("valid")]; tensor input_447_groups_0 = const()[name = tensor("input_447_groups_0"), val = tensor(512)]; tensor input_447_strides_0 = const()[name = tensor("input_447_strides_0"), val = tensor([1])]; tensor input_447_pad_0 = const()[name = tensor("input_447_pad_0"), val = tensor([0, 0])]; tensor input_447_dilations_0 = const()[name = tensor("input_447_dilations_0"), val = tensor([1])]; - tensor const_358_to_fp16 = const()[name = tensor("const_358_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108618752)))]; - tensor const_359_to_fp16 = const()[name = tensor("const_359_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108628032)))]; - tensor input_449_cast_fp16 = conv(bias = const_359_to_fp16, dilations = input_447_dilations_0, groups = input_447_groups_0, pad = input_447_pad_0, pad_type = input_447_pad_type_0, strides = input_447_strides_0, weight = const_358_to_fp16, x = input_445_cast_fp16)[name = tensor("input_449_cast_fp16")]; - tensor input_451_cast_fp16 = silu(x = input_449_cast_fp16)[name = tensor("input_451_cast_fp16")]; + tensor const_358_to_fp16 = const()[name = tensor("const_358_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111346688)))]; + tensor const_359_to_fp16 = const()[name = tensor("const_359_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111355968)))]; + tensor input_449_cast_fp16 = conv(bias = const_359_to_fp16, dilations = input_447_dilations_0, groups = input_447_groups_0, pad = input_447_pad_0, pad_type = input_447_pad_type_0, strides = input_447_strides_0, weight = const_358_to_fp16, x = input_445_cast_fp16)[name = tensor("input_449_cast_fp16")]; + tensor input_451_cast_fp16 = silu(x = input_449_cast_fp16)[name = tensor("input_451_cast_fp16")]; tensor x_195_pad_type_0 = const()[name = tensor("x_195_pad_type_0"), val = tensor("valid")]; tensor x_195_strides_0 = const()[name = tensor("x_195_strides_0"), val = tensor([1])]; tensor x_195_pad_0 = const()[name = tensor("x_195_pad_0"), val = tensor([0, 0])]; tensor x_195_dilations_0 = const()[name = tensor("x_195_dilations_0"), val = tensor([1])]; tensor x_195_groups_0 = const()[name = tensor("x_195_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_8_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(108629120)))]; - tensor model_encoder_layers_8_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(109153472)))]; - tensor x_195_cast_fp16 = conv(bias = model_encoder_layers_8_conv_pointwise_conv2_bias_to_fp16, dilations = x_195_dilations_0, groups = x_195_groups_0, pad = x_195_pad_0, pad_type = x_195_pad_type_0, strides = x_195_strides_0, weight = model_encoder_layers_8_conv_pointwise_conv2_weight_to_fp16, x = input_451_cast_fp16)[name = tensor("x_195_cast_fp16")]; + tensor model_encoder_layers_8_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111357056)))]; + tensor model_encoder_layers_8_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111881408)))]; + tensor x_195_cast_fp16 = conv(bias = model_encoder_layers_8_conv_pointwise_conv2_bias_to_fp16, dilations = x_195_dilations_0, groups = x_195_groups_0, pad = x_195_pad_0, pad_type = x_195_pad_type_0, strides = x_195_strides_0, weight = model_encoder_layers_8_conv_pointwise_conv2_weight_to_fp16, x = input_451_cast_fp16)[name = tensor("x_195_cast_fp16")]; tensor input_453_perm_0 = const()[name = tensor("input_453_perm_0"), val = tensor([0, 2, 1])]; - tensor input_453_cast_fp16 = transpose(perm = input_453_perm_0, x = x_195_cast_fp16)[name = tensor("transpose_249")]; - tensor input_455_cast_fp16 = add(x = input_437_cast_fp16, y = input_453_cast_fp16)[name = tensor("input_455_cast_fp16")]; + tensor input_453_cast_fp16 = transpose(perm = input_453_perm_0, x = x_195_cast_fp16)[name = tensor("transpose_249")]; + tensor input_455_cast_fp16 = add(x = input_437_cast_fp16, y = input_453_cast_fp16)[name = tensor("input_455_cast_fp16")]; tensor input_457_axes_0 = const()[name = tensor("input_457_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_8_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(109154560)))]; - tensor model_encoder_layers_8_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(109155648)))]; - tensor input_457_cast_fp16 = layer_norm(axes = input_457_axes_0, beta = model_encoder_layers_8_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_feed_forward2_weight_to_fp16, x = input_455_cast_fp16)[name = tensor("input_457_cast_fp16")]; - tensor model_encoder_layers_8_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(109156736)))]; - tensor model_encoder_layers_8_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111253952)))]; - tensor linear_79_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_8_feed_forward2_linear1_weight_to_fp16, x = input_457_cast_fp16)[name = tensor("linear_79_cast_fp16")]; - tensor input_461_cast_fp16 = silu(x = linear_79_cast_fp16)[name = tensor("input_461_cast_fp16")]; - tensor model_encoder_layers_8_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111258112)))]; - tensor model_encoder_layers_8_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113355328)))]; - tensor linear_80_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_8_feed_forward2_linear2_weight_to_fp16, x = input_461_cast_fp16)[name = tensor("linear_80_cast_fp16")]; + tensor model_encoder_layers_8_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111882496)))]; + tensor model_encoder_layers_8_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111883584)))]; + tensor input_457_cast_fp16 = layer_norm(axes = input_457_axes_0, beta = model_encoder_layers_8_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_feed_forward2_weight_to_fp16, x = input_455_cast_fp16)[name = tensor("input_457_cast_fp16")]; + tensor model_encoder_layers_8_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(111884672)))]; + tensor model_encoder_layers_8_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113981888)))]; + tensor linear_79_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_8_feed_forward2_linear1_weight_to_fp16, x = input_457_cast_fp16)[name = tensor("linear_79_cast_fp16")]; + tensor input_461_cast_fp16 = silu(x = linear_79_cast_fp16)[name = tensor("input_461_cast_fp16")]; + tensor model_encoder_layers_8_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113986048)))]; + tensor model_encoder_layers_8_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(116083264)))]; + tensor linear_80_cast_fp16 = linear(bias = model_encoder_layers_8_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_8_feed_forward2_linear2_weight_to_fp16, x = input_461_cast_fp16)[name = tensor("linear_80_cast_fp16")]; tensor var_1679_to_fp16 = const()[name = tensor("op_1679_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1680_cast_fp16 = mul(x = linear_80_cast_fp16, y = var_1679_to_fp16)[name = tensor("op_1680_cast_fp16")]; - tensor input_467_cast_fp16 = add(x = input_455_cast_fp16, y = var_1680_cast_fp16)[name = tensor("input_467_cast_fp16")]; + tensor var_1680_cast_fp16 = mul(x = linear_80_cast_fp16, y = var_1679_to_fp16)[name = tensor("op_1680_cast_fp16")]; + tensor input_467_cast_fp16 = add(x = input_455_cast_fp16, y = var_1680_cast_fp16)[name = tensor("input_467_cast_fp16")]; tensor input_469_axes_0 = const()[name = tensor("input_469_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_8_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113356416)))]; - tensor model_encoder_layers_8_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113357504)))]; - tensor input_469_cast_fp16 = layer_norm(axes = input_469_axes_0, beta = model_encoder_layers_8_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_out_weight_to_fp16, x = input_467_cast_fp16)[name = tensor("input_469_cast_fp16")]; + tensor model_encoder_layers_8_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(116084352)))]; + tensor model_encoder_layers_8_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_8_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(116085440)))]; + tensor input_469_cast_fp16 = layer_norm(axes = input_469_axes_0, beta = model_encoder_layers_8_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_8_norm_out_weight_to_fp16, x = input_467_cast_fp16)[name = tensor("input_469_cast_fp16")]; tensor input_471_axes_0 = const()[name = tensor("input_471_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_9_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113358592)))]; - tensor model_encoder_layers_9_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113359680)))]; - tensor input_471_cast_fp16 = layer_norm(axes = input_471_axes_0, beta = model_encoder_layers_9_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_feed_forward1_weight_to_fp16, x = input_469_cast_fp16)[name = tensor("input_471_cast_fp16")]; - tensor model_encoder_layers_9_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(113360768)))]; - tensor model_encoder_layers_9_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(115457984)))]; - tensor linear_81_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_9_feed_forward1_linear1_weight_to_fp16, x = input_471_cast_fp16)[name = tensor("linear_81_cast_fp16")]; - tensor input_475_cast_fp16 = silu(x = linear_81_cast_fp16)[name = tensor("input_475_cast_fp16")]; - tensor model_encoder_layers_9_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(115462144)))]; - tensor model_encoder_layers_9_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(117559360)))]; - tensor linear_82_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_9_feed_forward1_linear2_weight_to_fp16, x = input_475_cast_fp16)[name = tensor("linear_82_cast_fp16")]; + tensor model_encoder_layers_9_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(116086528)))]; + tensor model_encoder_layers_9_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(116087616)))]; + tensor input_471_cast_fp16 = layer_norm(axes = input_471_axes_0, beta = model_encoder_layers_9_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_feed_forward1_weight_to_fp16, x = input_469_cast_fp16)[name = tensor("input_471_cast_fp16")]; + tensor model_encoder_layers_9_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(116088704)))]; + tensor model_encoder_layers_9_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(118185920)))]; + tensor linear_81_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_9_feed_forward1_linear1_weight_to_fp16, x = input_471_cast_fp16)[name = tensor("linear_81_cast_fp16")]; + tensor input_475_cast_fp16 = silu(x = linear_81_cast_fp16)[name = tensor("input_475_cast_fp16")]; + tensor model_encoder_layers_9_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(118190080)))]; + tensor model_encoder_layers_9_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120287296)))]; + tensor linear_82_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_9_feed_forward1_linear2_weight_to_fp16, x = input_475_cast_fp16)[name = tensor("linear_82_cast_fp16")]; tensor var_1710_to_fp16 = const()[name = tensor("op_1710_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1711_cast_fp16 = mul(x = linear_82_cast_fp16, y = var_1710_to_fp16)[name = tensor("op_1711_cast_fp16")]; - tensor input_481_cast_fp16 = add(x = input_469_cast_fp16, y = var_1711_cast_fp16)[name = tensor("input_481_cast_fp16")]; + tensor var_1711_cast_fp16 = mul(x = linear_82_cast_fp16, y = var_1710_to_fp16)[name = tensor("op_1711_cast_fp16")]; + tensor input_481_cast_fp16 = add(x = input_469_cast_fp16, y = var_1711_cast_fp16)[name = tensor("input_481_cast_fp16")]; tensor query_19_axes_0 = const()[name = tensor("query_19_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_9_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(117560448)))]; - tensor model_encoder_layers_9_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(117561536)))]; - tensor query_19_cast_fp16 = layer_norm(axes = query_19_axes_0, beta = model_encoder_layers_9_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_self_att_weight_to_fp16, x = input_481_cast_fp16)[name = tensor("query_19_cast_fp16")]; - tensor model_encoder_layers_9_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(117562624)))]; - tensor model_encoder_layers_9_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(118086976)))]; - tensor linear_83_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_q_weight_to_fp16, x = query_19_cast_fp16)[name = tensor("linear_83_cast_fp16")]; + tensor model_encoder_layers_9_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120288384)))]; + tensor model_encoder_layers_9_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120289472)))]; + tensor query_19_cast_fp16 = layer_norm(axes = query_19_axes_0, beta = model_encoder_layers_9_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_self_att_weight_to_fp16, x = input_481_cast_fp16)[name = tensor("query_19_cast_fp16")]; + tensor model_encoder_layers_9_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120290560)))]; + tensor model_encoder_layers_9_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120814912)))]; + tensor linear_83_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_q_weight_to_fp16, x = query_19_cast_fp16)[name = tensor("linear_83_cast_fp16")]; tensor var_1728 = const()[name = tensor("op_1728"), val = tensor([1, -1, 8, 64])]; - tensor q_55_cast_fp16 = reshape(shape = var_1728, x = linear_83_cast_fp16)[name = tensor("q_55_cast_fp16")]; - tensor model_encoder_layers_9_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(118088064)))]; - tensor model_encoder_layers_9_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(118612416)))]; - tensor linear_84_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_k_weight_to_fp16, x = query_19_cast_fp16)[name = tensor("linear_84_cast_fp16")]; + tensor q_55_cast_fp16 = reshape(shape = var_1728, x = linear_83_cast_fp16)[name = tensor("q_55_cast_fp16")]; + tensor model_encoder_layers_9_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120816000)))]; + tensor model_encoder_layers_9_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121340352)))]; + tensor linear_84_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_k_weight_to_fp16, x = query_19_cast_fp16)[name = tensor("linear_84_cast_fp16")]; tensor var_1733 = const()[name = tensor("op_1733"), val = tensor([1, -1, 8, 64])]; - tensor k_37_cast_fp16 = reshape(shape = var_1733, x = linear_84_cast_fp16)[name = tensor("k_37_cast_fp16")]; - tensor model_encoder_layers_9_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(118613504)))]; - tensor model_encoder_layers_9_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(119137856)))]; - tensor linear_85_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_v_weight_to_fp16, x = query_19_cast_fp16)[name = tensor("linear_85_cast_fp16")]; + tensor k_37_cast_fp16 = reshape(shape = var_1733, x = linear_84_cast_fp16)[name = tensor("k_37_cast_fp16")]; + tensor model_encoder_layers_9_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121341440)))]; + tensor model_encoder_layers_9_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121865792)))]; + tensor linear_85_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_v_weight_to_fp16, x = query_19_cast_fp16)[name = tensor("linear_85_cast_fp16")]; tensor var_1738 = const()[name = tensor("op_1738"), val = tensor([1, -1, 8, 64])]; - tensor v_19_cast_fp16 = reshape(shape = var_1738, x = linear_85_cast_fp16)[name = tensor("v_19_cast_fp16")]; + tensor v_19_cast_fp16 = reshape(shape = var_1738, x = linear_85_cast_fp16)[name = tensor("v_19_cast_fp16")]; tensor value_19_perm_0 = const()[name = tensor("value_19_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_9_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(119138944)))]; - tensor var_1750_cast_fp16 = add(x = q_55_cast_fp16, y = model_encoder_layers_9_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1750_cast_fp16")]; - tensor model_encoder_layers_9_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(119140032)))]; - tensor var_1752_cast_fp16 = add(x = q_55_cast_fp16, y = model_encoder_layers_9_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1752_cast_fp16")]; + tensor model_encoder_layers_9_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121866880)))]; + tensor var_1750_cast_fp16 = add(x = q_55_cast_fp16, y = model_encoder_layers_9_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1750_cast_fp16")]; + tensor model_encoder_layers_9_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121867968)))]; + tensor var_1752_cast_fp16 = add(x = q_55_cast_fp16, y = model_encoder_layers_9_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1752_cast_fp16")]; tensor q_with_bias_v_19_perm_0 = const()[name = tensor("q_with_bias_v_19_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_203_transpose_x_0 = const()[name = tensor("x_203_transpose_x_0"), val = tensor(false)]; tensor x_203_transpose_y_0 = const()[name = tensor("x_203_transpose_y_0"), val = tensor(false)]; - tensor var_1754_to_fp16 = const()[name = tensor("op_1754_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(119141120)))]; - tensor q_with_bias_v_19_cast_fp16 = transpose(perm = q_with_bias_v_19_perm_0, x = var_1752_cast_fp16)[name = tensor("transpose_247")]; - tensor x_203_cast_fp16 = matmul(transpose_x = x_203_transpose_x_0, transpose_y = x_203_transpose_y_0, x = q_with_bias_v_19_cast_fp16, y = var_1754_to_fp16)[name = tensor("x_203_cast_fp16")]; + tensor var_1754_to_fp16 = const()[name = tensor("op_1754_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121869056)))]; + tensor q_with_bias_v_19_cast_fp16 = transpose(perm = q_with_bias_v_19_perm_0, x = var_1752_cast_fp16)[name = tensor("transpose_247")]; + tensor x_203_cast_fp16 = matmul(transpose_x = x_203_transpose_x_0, transpose_y = x_203_transpose_y_0, x = q_with_bias_v_19_cast_fp16, y = var_1754_to_fp16)[name = tensor("x_203_cast_fp16")]; tensor x_205_pad_0 = const()[name = tensor("x_205_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_205_mode_0 = const()[name = tensor("x_205_mode_0"), val = tensor("constant")]; tensor const_102_to_fp16 = const()[name = tensor("const_102_to_fp16"), val = tensor(0x0p+0)]; - tensor x_205_cast_fp16 = pad(constant_val = const_102_to_fp16, mode = x_205_mode_0, pad = x_205_pad_0, x = x_203_cast_fp16)[name = tensor("x_205_cast_fp16")]; - tensor var_1762 = const()[name = tensor("op_1762"), val = tensor([1, 8, -1, 242])]; - tensor x_207_cast_fp16 = reshape(shape = var_1762, x = x_205_cast_fp16)[name = tensor("x_207_cast_fp16")]; + tensor x_205_cast_fp16 = pad(constant_val = const_102_to_fp16, mode = x_205_mode_0, pad = x_205_pad_0, x = x_203_cast_fp16)[name = tensor("x_205_cast_fp16")]; + tensor var_1762 = const()[name = tensor("op_1762"), val = tensor([1, 8, -1, 390])]; + tensor x_207_cast_fp16 = reshape(shape = var_1762, x = x_205_cast_fp16)[name = tensor("x_207_cast_fp16")]; tensor var_1766_begin_0 = const()[name = tensor("op_1766_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_1766_end_0 = const()[name = tensor("op_1766_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_1766_end_0 = const()[name = tensor("op_1766_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_1766_end_mask_0 = const()[name = tensor("op_1766_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_1766_cast_fp16 = slice_by_index(begin = var_1766_begin_0, end = var_1766_end_0, end_mask = var_1766_end_mask_0, x = x_207_cast_fp16)[name = tensor("op_1766_cast_fp16")]; - tensor var_1767 = const()[name = tensor("op_1767"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_37_cast_fp16 = reshape(shape = var_1767, x = var_1766_cast_fp16)[name = tensor("matrix_bd_37_cast_fp16")]; + tensor var_1766_cast_fp16 = slice_by_index(begin = var_1766_begin_0, end = var_1766_end_0, end_mask = var_1766_end_mask_0, x = x_207_cast_fp16)[name = tensor("op_1766_cast_fp16")]; + tensor var_1767 = const()[name = tensor("op_1767"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_37_cast_fp16 = reshape(shape = var_1767, x = var_1766_cast_fp16)[name = tensor("matrix_bd_37_cast_fp16")]; tensor matrix_ac_19_transpose_x_0 = const()[name = tensor("matrix_ac_19_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_19_transpose_y_0 = const()[name = tensor("matrix_ac_19_transpose_y_0"), val = tensor(false)]; tensor transpose_69_perm_0 = const()[name = tensor("transpose_69_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_70_perm_0 = const()[name = tensor("transpose_70_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_70 = transpose(perm = transpose_70_perm_0, x = k_37_cast_fp16)[name = tensor("transpose_245")]; - tensor transpose_69 = transpose(perm = transpose_69_perm_0, x = var_1750_cast_fp16)[name = tensor("transpose_246")]; - tensor matrix_ac_19_cast_fp16 = matmul(transpose_x = matrix_ac_19_transpose_x_0, transpose_y = matrix_ac_19_transpose_y_0, x = transpose_69, y = transpose_70)[name = tensor("matrix_ac_19_cast_fp16")]; + tensor transpose_70 = transpose(perm = transpose_70_perm_0, x = k_37_cast_fp16)[name = tensor("transpose_245")]; + tensor transpose_69 = transpose(perm = transpose_69_perm_0, x = var_1750_cast_fp16)[name = tensor("transpose_246")]; + tensor matrix_ac_19_cast_fp16 = matmul(transpose_x = matrix_ac_19_transpose_x_0, transpose_y = matrix_ac_19_transpose_y_0, x = transpose_69, y = transpose_70)[name = tensor("matrix_ac_19_cast_fp16")]; tensor matrix_bd_39_begin_0 = const()[name = tensor("matrix_bd_39_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_39_end_0 = const()[name = tensor("matrix_bd_39_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_39_end_0 = const()[name = tensor("matrix_bd_39_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_39_end_mask_0 = const()[name = tensor("matrix_bd_39_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_39_cast_fp16 = slice_by_index(begin = matrix_bd_39_begin_0, end = matrix_bd_39_end_0, end_mask = matrix_bd_39_end_mask_0, x = matrix_bd_37_cast_fp16)[name = tensor("matrix_bd_39_cast_fp16")]; - tensor var_1776_cast_fp16 = add(x = matrix_ac_19_cast_fp16, y = matrix_bd_39_cast_fp16)[name = tensor("op_1776_cast_fp16")]; + tensor matrix_bd_39_cast_fp16 = slice_by_index(begin = matrix_bd_39_begin_0, end = matrix_bd_39_end_0, end_mask = matrix_bd_39_end_mask_0, x = matrix_bd_37_cast_fp16)[name = tensor("matrix_bd_39_cast_fp16")]; + tensor var_1776_cast_fp16 = add(x = matrix_ac_19_cast_fp16, y = matrix_bd_39_cast_fp16)[name = tensor("op_1776_cast_fp16")]; tensor _inversed_scores_37_y_0_to_fp16 = const()[name = tensor("_inversed_scores_37_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_37_cast_fp16 = mul(x = var_1776_cast_fp16, y = _inversed_scores_37_y_0_to_fp16)[name = tensor("_inversed_scores_37_cast_fp16")]; - tensor scores_39_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_37_cast_fp16, cond = mask_3)[name = tensor("scores_39_cast_fp16")]; - tensor var_1782_cast_fp16 = softmax(axis = var_30, x = scores_39_cast_fp16)[name = tensor("op_1782_cast_fp16")]; - tensor input_483_cast_fp16 = select(a = var_21_to_fp16, b = var_1782_cast_fp16, cond = mask_3)[name = tensor("input_483_cast_fp16")]; + tensor _inversed_scores_37_cast_fp16 = mul(x = var_1776_cast_fp16, y = _inversed_scores_37_y_0_to_fp16)[name = tensor("_inversed_scores_37_cast_fp16")]; + tensor scores_39_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_37_cast_fp16, cond = mask_3)[name = tensor("scores_39_cast_fp16")]; + tensor var_1782_cast_fp16 = softmax(axis = var_30, x = scores_39_cast_fp16)[name = tensor("op_1782_cast_fp16")]; + tensor input_483_cast_fp16 = select(a = var_21_to_fp16, b = var_1782_cast_fp16, cond = mask_3)[name = tensor("input_483_cast_fp16")]; tensor x_209_transpose_x_0 = const()[name = tensor("x_209_transpose_x_0"), val = tensor(false)]; tensor x_209_transpose_y_0 = const()[name = tensor("x_209_transpose_y_0"), val = tensor(false)]; - tensor value_19_cast_fp16 = transpose(perm = value_19_perm_0, x = v_19_cast_fp16)[name = tensor("transpose_248")]; - tensor x_209_cast_fp16 = matmul(transpose_x = x_209_transpose_x_0, transpose_y = x_209_transpose_y_0, x = input_483_cast_fp16, y = value_19_cast_fp16)[name = tensor("x_209_cast_fp16")]; + tensor value_19_cast_fp16 = transpose(perm = value_19_perm_0, x = v_19_cast_fp16)[name = tensor("transpose_248")]; + tensor x_209_cast_fp16 = matmul(transpose_x = x_209_transpose_x_0, transpose_y = x_209_transpose_y_0, x = input_483_cast_fp16, y = value_19_cast_fp16)[name = tensor("x_209_cast_fp16")]; tensor var_1786_perm_0 = const()[name = tensor("op_1786_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_1787 = const()[name = tensor("op_1787"), val = tensor([1, -1, 512])]; - tensor var_1786_cast_fp16 = transpose(perm = var_1786_perm_0, x = x_209_cast_fp16)[name = tensor("transpose_244")]; - tensor input_485_cast_fp16 = reshape(shape = var_1787, x = var_1786_cast_fp16)[name = tensor("input_485_cast_fp16")]; - tensor model_encoder_layers_9_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(119635776)))]; - tensor model_encoder_layers_9_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120160128)))]; - tensor linear_87_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_out_weight_to_fp16, x = input_485_cast_fp16)[name = tensor("linear_87_cast_fp16")]; - tensor input_489_cast_fp16 = add(x = input_481_cast_fp16, y = linear_87_cast_fp16)[name = tensor("input_489_cast_fp16")]; + tensor var_1786_cast_fp16 = transpose(perm = var_1786_perm_0, x = x_209_cast_fp16)[name = tensor("transpose_244")]; + tensor input_485_cast_fp16 = reshape(shape = var_1787, x = var_1786_cast_fp16)[name = tensor("input_485_cast_fp16")]; + tensor model_encoder_layers_9_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(122666816)))]; + tensor model_encoder_layers_9_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(123191168)))]; + tensor linear_87_cast_fp16 = linear(bias = model_encoder_layers_9_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_9_self_attn_linear_out_weight_to_fp16, x = input_485_cast_fp16)[name = tensor("linear_87_cast_fp16")]; + tensor input_489_cast_fp16 = add(x = input_481_cast_fp16, y = linear_87_cast_fp16)[name = tensor("input_489_cast_fp16")]; tensor x_213_axes_0 = const()[name = tensor("x_213_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_9_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120161216)))]; - tensor model_encoder_layers_9_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120162304)))]; - tensor x_213_cast_fp16 = layer_norm(axes = x_213_axes_0, beta = model_encoder_layers_9_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_conv_weight_to_fp16, x = input_489_cast_fp16)[name = tensor("x_213_cast_fp16")]; + tensor model_encoder_layers_9_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(123192256)))]; + tensor model_encoder_layers_9_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(123193344)))]; + tensor x_213_cast_fp16 = layer_norm(axes = x_213_axes_0, beta = model_encoder_layers_9_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_conv_weight_to_fp16, x = input_489_cast_fp16)[name = tensor("x_213_cast_fp16")]; tensor input_491_perm_0 = const()[name = tensor("input_491_perm_0"), val = tensor([0, 2, 1])]; tensor input_493_pad_type_0 = const()[name = tensor("input_493_pad_type_0"), val = tensor("valid")]; tensor input_493_strides_0 = const()[name = tensor("input_493_strides_0"), val = tensor([1])]; tensor input_493_pad_0 = const()[name = tensor("input_493_pad_0"), val = tensor([0, 0])]; tensor input_493_dilations_0 = const()[name = tensor("input_493_dilations_0"), val = tensor([1])]; tensor input_493_groups_0 = const()[name = tensor("input_493_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_9_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(120163392)))]; - tensor model_encoder_layers_9_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121212032)))]; - tensor input_491_cast_fp16 = transpose(perm = input_491_perm_0, x = x_213_cast_fp16)[name = tensor("transpose_243")]; - tensor input_493_cast_fp16 = conv(bias = model_encoder_layers_9_conv_pointwise_conv1_bias_to_fp16, dilations = input_493_dilations_0, groups = input_493_groups_0, pad = input_493_pad_0, pad_type = input_493_pad_type_0, strides = input_493_strides_0, weight = model_encoder_layers_9_conv_pointwise_conv1_weight_to_fp16, x = input_491_cast_fp16)[name = tensor("input_493_cast_fp16")]; + tensor model_encoder_layers_9_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(123194432)))]; + tensor model_encoder_layers_9_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124243072)))]; + tensor input_491_cast_fp16 = transpose(perm = input_491_perm_0, x = x_213_cast_fp16)[name = tensor("transpose_243")]; + tensor input_493_cast_fp16 = conv(bias = model_encoder_layers_9_conv_pointwise_conv1_bias_to_fp16, dilations = input_493_dilations_0, groups = input_493_groups_0, pad = input_493_pad_0, pad_type = input_493_pad_type_0, strides = input_493_strides_0, weight = model_encoder_layers_9_conv_pointwise_conv1_weight_to_fp16, x = input_491_cast_fp16)[name = tensor("input_493_cast_fp16")]; tensor x_215_split_num_splits_0 = const()[name = tensor("x_215_split_num_splits_0"), val = tensor(2)]; tensor x_215_split_axis_0 = const()[name = tensor("x_215_split_axis_0"), val = tensor(1)]; - tensor x_215_split_cast_fp16_0, tensor x_215_split_cast_fp16_1 = split(axis = x_215_split_axis_0, num_splits = x_215_split_num_splits_0, x = input_493_cast_fp16)[name = tensor("x_215_split_cast_fp16")]; - tensor x_215_split_1_sigmoid_cast_fp16 = sigmoid(x = x_215_split_cast_fp16_1)[name = tensor("x_215_split_1_sigmoid_cast_fp16")]; - tensor x_215_cast_fp16 = mul(x = x_215_split_cast_fp16_0, y = x_215_split_1_sigmoid_cast_fp16)[name = tensor("x_215_cast_fp16")]; - tensor input_495_cast_fp16 = select(a = var_21_to_fp16, b = x_215_cast_fp16, cond = var_245)[name = tensor("input_495_cast_fp16")]; + tensor x_215_split_cast_fp16_0, tensor x_215_split_cast_fp16_1 = split(axis = x_215_split_axis_0, num_splits = x_215_split_num_splits_0, x = input_493_cast_fp16)[name = tensor("x_215_split_cast_fp16")]; + tensor x_215_split_1_sigmoid_cast_fp16 = sigmoid(x = x_215_split_cast_fp16_1)[name = tensor("x_215_split_1_sigmoid_cast_fp16")]; + tensor x_215_cast_fp16 = mul(x = x_215_split_cast_fp16_0, y = x_215_split_1_sigmoid_cast_fp16)[name = tensor("x_215_cast_fp16")]; + tensor input_495_cast_fp16 = select(a = var_21_to_fp16, b = x_215_cast_fp16, cond = var_245)[name = tensor("input_495_cast_fp16")]; tensor input_497_pad_0 = const()[name = tensor("input_497_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_497_mode_0 = const()[name = tensor("input_497_mode_0"), val = tensor("constant")]; tensor const_105_to_fp16 = const()[name = tensor("const_105_to_fp16"), val = tensor(0x0p+0)]; - tensor input_497_cast_fp16 = pad(constant_val = const_105_to_fp16, mode = input_497_mode_0, pad = input_497_pad_0, x = input_495_cast_fp16)[name = tensor("input_497_cast_fp16")]; + tensor input_497_cast_fp16 = pad(constant_val = const_105_to_fp16, mode = input_497_mode_0, pad = input_497_pad_0, x = input_495_cast_fp16)[name = tensor("input_497_cast_fp16")]; tensor input_499_pad_type_0 = const()[name = tensor("input_499_pad_type_0"), val = tensor("valid")]; tensor input_499_groups_0 = const()[name = tensor("input_499_groups_0"), val = tensor(512)]; tensor input_499_strides_0 = const()[name = tensor("input_499_strides_0"), val = tensor([1])]; tensor input_499_pad_0 = const()[name = tensor("input_499_pad_0"), val = tensor([0, 0])]; tensor input_499_dilations_0 = const()[name = tensor("input_499_dilations_0"), val = tensor([1])]; - tensor const_360_to_fp16 = const()[name = tensor("const_360_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121214144)))]; - tensor const_361_to_fp16 = const()[name = tensor("const_361_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121223424)))]; - tensor input_501_cast_fp16 = conv(bias = const_361_to_fp16, dilations = input_499_dilations_0, groups = input_499_groups_0, pad = input_499_pad_0, pad_type = input_499_pad_type_0, strides = input_499_strides_0, weight = const_360_to_fp16, x = input_497_cast_fp16)[name = tensor("input_501_cast_fp16")]; - tensor input_503_cast_fp16 = silu(x = input_501_cast_fp16)[name = tensor("input_503_cast_fp16")]; + tensor const_360_to_fp16 = const()[name = tensor("const_360_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124245184)))]; + tensor const_361_to_fp16 = const()[name = tensor("const_361_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124254464)))]; + tensor input_501_cast_fp16 = conv(bias = const_361_to_fp16, dilations = input_499_dilations_0, groups = input_499_groups_0, pad = input_499_pad_0, pad_type = input_499_pad_type_0, strides = input_499_strides_0, weight = const_360_to_fp16, x = input_497_cast_fp16)[name = tensor("input_501_cast_fp16")]; + tensor input_503_cast_fp16 = silu(x = input_501_cast_fp16)[name = tensor("input_503_cast_fp16")]; tensor x_217_pad_type_0 = const()[name = tensor("x_217_pad_type_0"), val = tensor("valid")]; tensor x_217_strides_0 = const()[name = tensor("x_217_strides_0"), val = tensor([1])]; tensor x_217_pad_0 = const()[name = tensor("x_217_pad_0"), val = tensor([0, 0])]; tensor x_217_dilations_0 = const()[name = tensor("x_217_dilations_0"), val = tensor([1])]; tensor x_217_groups_0 = const()[name = tensor("x_217_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_9_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121224512)))]; - tensor model_encoder_layers_9_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121748864)))]; - tensor x_217_cast_fp16 = conv(bias = model_encoder_layers_9_conv_pointwise_conv2_bias_to_fp16, dilations = x_217_dilations_0, groups = x_217_groups_0, pad = x_217_pad_0, pad_type = x_217_pad_type_0, strides = x_217_strides_0, weight = model_encoder_layers_9_conv_pointwise_conv2_weight_to_fp16, x = input_503_cast_fp16)[name = tensor("x_217_cast_fp16")]; + tensor model_encoder_layers_9_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124255552)))]; + tensor model_encoder_layers_9_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124779904)))]; + tensor x_217_cast_fp16 = conv(bias = model_encoder_layers_9_conv_pointwise_conv2_bias_to_fp16, dilations = x_217_dilations_0, groups = x_217_groups_0, pad = x_217_pad_0, pad_type = x_217_pad_type_0, strides = x_217_strides_0, weight = model_encoder_layers_9_conv_pointwise_conv2_weight_to_fp16, x = input_503_cast_fp16)[name = tensor("x_217_cast_fp16")]; tensor input_505_perm_0 = const()[name = tensor("input_505_perm_0"), val = tensor([0, 2, 1])]; - tensor input_505_cast_fp16 = transpose(perm = input_505_perm_0, x = x_217_cast_fp16)[name = tensor("transpose_242")]; - tensor input_507_cast_fp16 = add(x = input_489_cast_fp16, y = input_505_cast_fp16)[name = tensor("input_507_cast_fp16")]; + tensor input_505_cast_fp16 = transpose(perm = input_505_perm_0, x = x_217_cast_fp16)[name = tensor("transpose_242")]; + tensor input_507_cast_fp16 = add(x = input_489_cast_fp16, y = input_505_cast_fp16)[name = tensor("input_507_cast_fp16")]; tensor input_509_axes_0 = const()[name = tensor("input_509_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_9_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121749952)))]; - tensor model_encoder_layers_9_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121751040)))]; - tensor input_509_cast_fp16 = layer_norm(axes = input_509_axes_0, beta = model_encoder_layers_9_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_feed_forward2_weight_to_fp16, x = input_507_cast_fp16)[name = tensor("input_509_cast_fp16")]; - tensor model_encoder_layers_9_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(121752128)))]; - tensor model_encoder_layers_9_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(123849344)))]; - tensor linear_88_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_9_feed_forward2_linear1_weight_to_fp16, x = input_509_cast_fp16)[name = tensor("linear_88_cast_fp16")]; - tensor input_513_cast_fp16 = silu(x = linear_88_cast_fp16)[name = tensor("input_513_cast_fp16")]; - tensor model_encoder_layers_9_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(123853504)))]; - tensor model_encoder_layers_9_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(125950720)))]; - tensor linear_89_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_9_feed_forward2_linear2_weight_to_fp16, x = input_513_cast_fp16)[name = tensor("linear_89_cast_fp16")]; + tensor model_encoder_layers_9_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124780992)))]; + tensor model_encoder_layers_9_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124782080)))]; + tensor input_509_cast_fp16 = layer_norm(axes = input_509_axes_0, beta = model_encoder_layers_9_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_feed_forward2_weight_to_fp16, x = input_507_cast_fp16)[name = tensor("input_509_cast_fp16")]; + tensor model_encoder_layers_9_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(124783168)))]; + tensor model_encoder_layers_9_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(126880384)))]; + tensor linear_88_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_9_feed_forward2_linear1_weight_to_fp16, x = input_509_cast_fp16)[name = tensor("linear_88_cast_fp16")]; + tensor input_513_cast_fp16 = silu(x = linear_88_cast_fp16)[name = tensor("input_513_cast_fp16")]; + tensor model_encoder_layers_9_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(126884544)))]; + tensor model_encoder_layers_9_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128981760)))]; + tensor linear_89_cast_fp16 = linear(bias = model_encoder_layers_9_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_9_feed_forward2_linear2_weight_to_fp16, x = input_513_cast_fp16)[name = tensor("linear_89_cast_fp16")]; tensor var_1853_to_fp16 = const()[name = tensor("op_1853_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1854_cast_fp16 = mul(x = linear_89_cast_fp16, y = var_1853_to_fp16)[name = tensor("op_1854_cast_fp16")]; - tensor input_519_cast_fp16 = add(x = input_507_cast_fp16, y = var_1854_cast_fp16)[name = tensor("input_519_cast_fp16")]; + tensor var_1854_cast_fp16 = mul(x = linear_89_cast_fp16, y = var_1853_to_fp16)[name = tensor("op_1854_cast_fp16")]; + tensor input_519_cast_fp16 = add(x = input_507_cast_fp16, y = var_1854_cast_fp16)[name = tensor("input_519_cast_fp16")]; tensor input_521_axes_0 = const()[name = tensor("input_521_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_9_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(125951808)))]; - tensor model_encoder_layers_9_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(125952896)))]; - tensor input_521_cast_fp16 = layer_norm(axes = input_521_axes_0, beta = model_encoder_layers_9_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_out_weight_to_fp16, x = input_519_cast_fp16)[name = tensor("input_521_cast_fp16")]; + tensor model_encoder_layers_9_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128982848)))]; + tensor model_encoder_layers_9_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_9_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128983936)))]; + tensor input_521_cast_fp16 = layer_norm(axes = input_521_axes_0, beta = model_encoder_layers_9_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_9_norm_out_weight_to_fp16, x = input_519_cast_fp16)[name = tensor("input_521_cast_fp16")]; tensor input_523_axes_0 = const()[name = tensor("input_523_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_10_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(125953984)))]; - tensor model_encoder_layers_10_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(125955072)))]; - tensor input_523_cast_fp16 = layer_norm(axes = input_523_axes_0, beta = model_encoder_layers_10_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_feed_forward1_weight_to_fp16, x = input_521_cast_fp16)[name = tensor("input_523_cast_fp16")]; - tensor model_encoder_layers_10_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(125956160)))]; - tensor model_encoder_layers_10_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128053376)))]; - tensor linear_90_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_10_feed_forward1_linear1_weight_to_fp16, x = input_523_cast_fp16)[name = tensor("linear_90_cast_fp16")]; - tensor input_527_cast_fp16 = silu(x = linear_90_cast_fp16)[name = tensor("input_527_cast_fp16")]; - tensor model_encoder_layers_10_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128057536)))]; - tensor model_encoder_layers_10_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(130154752)))]; - tensor linear_91_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_10_feed_forward1_linear2_weight_to_fp16, x = input_527_cast_fp16)[name = tensor("linear_91_cast_fp16")]; + tensor model_encoder_layers_10_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128985024)))]; + tensor model_encoder_layers_10_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128986112)))]; + tensor input_523_cast_fp16 = layer_norm(axes = input_523_axes_0, beta = model_encoder_layers_10_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_feed_forward1_weight_to_fp16, x = input_521_cast_fp16)[name = tensor("input_523_cast_fp16")]; + tensor model_encoder_layers_10_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(128987200)))]; + tensor model_encoder_layers_10_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131084416)))]; + tensor linear_90_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_10_feed_forward1_linear1_weight_to_fp16, x = input_523_cast_fp16)[name = tensor("linear_90_cast_fp16")]; + tensor input_527_cast_fp16 = silu(x = linear_90_cast_fp16)[name = tensor("input_527_cast_fp16")]; + tensor model_encoder_layers_10_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131088576)))]; + tensor model_encoder_layers_10_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133185792)))]; + tensor linear_91_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_10_feed_forward1_linear2_weight_to_fp16, x = input_527_cast_fp16)[name = tensor("linear_91_cast_fp16")]; tensor var_1884_to_fp16 = const()[name = tensor("op_1884_to_fp16"), val = tensor(0x1p-1)]; - tensor var_1885_cast_fp16 = mul(x = linear_91_cast_fp16, y = var_1884_to_fp16)[name = tensor("op_1885_cast_fp16")]; - tensor input_533_cast_fp16 = add(x = input_521_cast_fp16, y = var_1885_cast_fp16)[name = tensor("input_533_cast_fp16")]; + tensor var_1885_cast_fp16 = mul(x = linear_91_cast_fp16, y = var_1884_to_fp16)[name = tensor("op_1885_cast_fp16")]; + tensor input_533_cast_fp16 = add(x = input_521_cast_fp16, y = var_1885_cast_fp16)[name = tensor("input_533_cast_fp16")]; tensor query_21_axes_0 = const()[name = tensor("query_21_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_10_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(130155840)))]; - tensor model_encoder_layers_10_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(130156928)))]; - tensor query_21_cast_fp16 = layer_norm(axes = query_21_axes_0, beta = model_encoder_layers_10_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_self_att_weight_to_fp16, x = input_533_cast_fp16)[name = tensor("query_21_cast_fp16")]; - tensor model_encoder_layers_10_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(130158016)))]; - tensor model_encoder_layers_10_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(130682368)))]; - tensor linear_92_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_q_weight_to_fp16, x = query_21_cast_fp16)[name = tensor("linear_92_cast_fp16")]; + tensor model_encoder_layers_10_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133186880)))]; + tensor model_encoder_layers_10_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133187968)))]; + tensor query_21_cast_fp16 = layer_norm(axes = query_21_axes_0, beta = model_encoder_layers_10_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_self_att_weight_to_fp16, x = input_533_cast_fp16)[name = tensor("query_21_cast_fp16")]; + tensor model_encoder_layers_10_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133189056)))]; + tensor model_encoder_layers_10_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133713408)))]; + tensor linear_92_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_q_weight_to_fp16, x = query_21_cast_fp16)[name = tensor("linear_92_cast_fp16")]; tensor var_1902 = const()[name = tensor("op_1902"), val = tensor([1, -1, 8, 64])]; - tensor q_61_cast_fp16 = reshape(shape = var_1902, x = linear_92_cast_fp16)[name = tensor("q_61_cast_fp16")]; - tensor model_encoder_layers_10_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(130683456)))]; - tensor model_encoder_layers_10_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131207808)))]; - tensor linear_93_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_k_weight_to_fp16, x = query_21_cast_fp16)[name = tensor("linear_93_cast_fp16")]; + tensor q_61_cast_fp16 = reshape(shape = var_1902, x = linear_92_cast_fp16)[name = tensor("q_61_cast_fp16")]; + tensor model_encoder_layers_10_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133714496)))]; + tensor model_encoder_layers_10_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134238848)))]; + tensor linear_93_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_k_weight_to_fp16, x = query_21_cast_fp16)[name = tensor("linear_93_cast_fp16")]; tensor var_1907 = const()[name = tensor("op_1907"), val = tensor([1, -1, 8, 64])]; - tensor k_41_cast_fp16 = reshape(shape = var_1907, x = linear_93_cast_fp16)[name = tensor("k_41_cast_fp16")]; - tensor model_encoder_layers_10_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131208896)))]; - tensor model_encoder_layers_10_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131733248)))]; - tensor linear_94_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_v_weight_to_fp16, x = query_21_cast_fp16)[name = tensor("linear_94_cast_fp16")]; + tensor k_41_cast_fp16 = reshape(shape = var_1907, x = linear_93_cast_fp16)[name = tensor("k_41_cast_fp16")]; + tensor model_encoder_layers_10_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134239936)))]; + tensor model_encoder_layers_10_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134764288)))]; + tensor linear_94_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_v_weight_to_fp16, x = query_21_cast_fp16)[name = tensor("linear_94_cast_fp16")]; tensor var_1912 = const()[name = tensor("op_1912"), val = tensor([1, -1, 8, 64])]; - tensor v_21_cast_fp16 = reshape(shape = var_1912, x = linear_94_cast_fp16)[name = tensor("v_21_cast_fp16")]; + tensor v_21_cast_fp16 = reshape(shape = var_1912, x = linear_94_cast_fp16)[name = tensor("v_21_cast_fp16")]; tensor value_21_perm_0 = const()[name = tensor("value_21_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_10_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131734336)))]; - tensor var_1924_cast_fp16 = add(x = q_61_cast_fp16, y = model_encoder_layers_10_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1924_cast_fp16")]; - tensor model_encoder_layers_10_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131735424)))]; - tensor var_1926_cast_fp16 = add(x = q_61_cast_fp16, y = model_encoder_layers_10_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1926_cast_fp16")]; + tensor model_encoder_layers_10_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134765376)))]; + tensor var_1924_cast_fp16 = add(x = q_61_cast_fp16, y = model_encoder_layers_10_self_attn_pos_bias_u_to_fp16)[name = tensor("op_1924_cast_fp16")]; + tensor model_encoder_layers_10_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134766464)))]; + tensor var_1926_cast_fp16 = add(x = q_61_cast_fp16, y = model_encoder_layers_10_self_attn_pos_bias_v_to_fp16)[name = tensor("op_1926_cast_fp16")]; tensor q_with_bias_v_21_perm_0 = const()[name = tensor("q_with_bias_v_21_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_225_transpose_x_0 = const()[name = tensor("x_225_transpose_x_0"), val = tensor(false)]; tensor x_225_transpose_y_0 = const()[name = tensor("x_225_transpose_y_0"), val = tensor(false)]; - tensor var_1928_to_fp16 = const()[name = tensor("op_1928_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(131736512)))]; - tensor q_with_bias_v_21_cast_fp16 = transpose(perm = q_with_bias_v_21_perm_0, x = var_1926_cast_fp16)[name = tensor("transpose_240")]; - tensor x_225_cast_fp16 = matmul(transpose_x = x_225_transpose_x_0, transpose_y = x_225_transpose_y_0, x = q_with_bias_v_21_cast_fp16, y = var_1928_to_fp16)[name = tensor("x_225_cast_fp16")]; + tensor var_1928_to_fp16 = const()[name = tensor("op_1928_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134767552)))]; + tensor q_with_bias_v_21_cast_fp16 = transpose(perm = q_with_bias_v_21_perm_0, x = var_1926_cast_fp16)[name = tensor("transpose_240")]; + tensor x_225_cast_fp16 = matmul(transpose_x = x_225_transpose_x_0, transpose_y = x_225_transpose_y_0, x = q_with_bias_v_21_cast_fp16, y = var_1928_to_fp16)[name = tensor("x_225_cast_fp16")]; tensor x_227_pad_0 = const()[name = tensor("x_227_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_227_mode_0 = const()[name = tensor("x_227_mode_0"), val = tensor("constant")]; tensor const_112_to_fp16 = const()[name = tensor("const_112_to_fp16"), val = tensor(0x0p+0)]; - tensor x_227_cast_fp16 = pad(constant_val = const_112_to_fp16, mode = x_227_mode_0, pad = x_227_pad_0, x = x_225_cast_fp16)[name = tensor("x_227_cast_fp16")]; - tensor var_1936 = const()[name = tensor("op_1936"), val = tensor([1, 8, -1, 242])]; - tensor x_229_cast_fp16 = reshape(shape = var_1936, x = x_227_cast_fp16)[name = tensor("x_229_cast_fp16")]; + tensor x_227_cast_fp16 = pad(constant_val = const_112_to_fp16, mode = x_227_mode_0, pad = x_227_pad_0, x = x_225_cast_fp16)[name = tensor("x_227_cast_fp16")]; + tensor var_1936 = const()[name = tensor("op_1936"), val = tensor([1, 8, -1, 390])]; + tensor x_229_cast_fp16 = reshape(shape = var_1936, x = x_227_cast_fp16)[name = tensor("x_229_cast_fp16")]; tensor var_1940_begin_0 = const()[name = tensor("op_1940_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_1940_end_0 = const()[name = tensor("op_1940_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_1940_end_0 = const()[name = tensor("op_1940_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_1940_end_mask_0 = const()[name = tensor("op_1940_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_1940_cast_fp16 = slice_by_index(begin = var_1940_begin_0, end = var_1940_end_0, end_mask = var_1940_end_mask_0, x = x_229_cast_fp16)[name = tensor("op_1940_cast_fp16")]; - tensor var_1941 = const()[name = tensor("op_1941"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_41_cast_fp16 = reshape(shape = var_1941, x = var_1940_cast_fp16)[name = tensor("matrix_bd_41_cast_fp16")]; + tensor var_1940_cast_fp16 = slice_by_index(begin = var_1940_begin_0, end = var_1940_end_0, end_mask = var_1940_end_mask_0, x = x_229_cast_fp16)[name = tensor("op_1940_cast_fp16")]; + tensor var_1941 = const()[name = tensor("op_1941"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_41_cast_fp16 = reshape(shape = var_1941, x = var_1940_cast_fp16)[name = tensor("matrix_bd_41_cast_fp16")]; tensor matrix_ac_21_transpose_x_0 = const()[name = tensor("matrix_ac_21_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_21_transpose_y_0 = const()[name = tensor("matrix_ac_21_transpose_y_0"), val = tensor(false)]; tensor transpose_71_perm_0 = const()[name = tensor("transpose_71_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_72_perm_0 = const()[name = tensor("transpose_72_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_72 = transpose(perm = transpose_72_perm_0, x = k_41_cast_fp16)[name = tensor("transpose_238")]; - tensor transpose_71 = transpose(perm = transpose_71_perm_0, x = var_1924_cast_fp16)[name = tensor("transpose_239")]; - tensor matrix_ac_21_cast_fp16 = matmul(transpose_x = matrix_ac_21_transpose_x_0, transpose_y = matrix_ac_21_transpose_y_0, x = transpose_71, y = transpose_72)[name = tensor("matrix_ac_21_cast_fp16")]; + tensor transpose_72 = transpose(perm = transpose_72_perm_0, x = k_41_cast_fp16)[name = tensor("transpose_238")]; + tensor transpose_71 = transpose(perm = transpose_71_perm_0, x = var_1924_cast_fp16)[name = tensor("transpose_239")]; + tensor matrix_ac_21_cast_fp16 = matmul(transpose_x = matrix_ac_21_transpose_x_0, transpose_y = matrix_ac_21_transpose_y_0, x = transpose_71, y = transpose_72)[name = tensor("matrix_ac_21_cast_fp16")]; tensor matrix_bd_43_begin_0 = const()[name = tensor("matrix_bd_43_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_43_end_0 = const()[name = tensor("matrix_bd_43_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_43_end_0 = const()[name = tensor("matrix_bd_43_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_43_end_mask_0 = const()[name = tensor("matrix_bd_43_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_43_cast_fp16 = slice_by_index(begin = matrix_bd_43_begin_0, end = matrix_bd_43_end_0, end_mask = matrix_bd_43_end_mask_0, x = matrix_bd_41_cast_fp16)[name = tensor("matrix_bd_43_cast_fp16")]; - tensor var_1950_cast_fp16 = add(x = matrix_ac_21_cast_fp16, y = matrix_bd_43_cast_fp16)[name = tensor("op_1950_cast_fp16")]; + tensor matrix_bd_43_cast_fp16 = slice_by_index(begin = matrix_bd_43_begin_0, end = matrix_bd_43_end_0, end_mask = matrix_bd_43_end_mask_0, x = matrix_bd_41_cast_fp16)[name = tensor("matrix_bd_43_cast_fp16")]; + tensor var_1950_cast_fp16 = add(x = matrix_ac_21_cast_fp16, y = matrix_bd_43_cast_fp16)[name = tensor("op_1950_cast_fp16")]; tensor _inversed_scores_41_y_0_to_fp16 = const()[name = tensor("_inversed_scores_41_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_41_cast_fp16 = mul(x = var_1950_cast_fp16, y = _inversed_scores_41_y_0_to_fp16)[name = tensor("_inversed_scores_41_cast_fp16")]; - tensor scores_43_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_41_cast_fp16, cond = mask_3)[name = tensor("scores_43_cast_fp16")]; - tensor var_1956_cast_fp16 = softmax(axis = var_30, x = scores_43_cast_fp16)[name = tensor("op_1956_cast_fp16")]; - tensor input_535_cast_fp16 = select(a = var_21_to_fp16, b = var_1956_cast_fp16, cond = mask_3)[name = tensor("input_535_cast_fp16")]; + tensor _inversed_scores_41_cast_fp16 = mul(x = var_1950_cast_fp16, y = _inversed_scores_41_y_0_to_fp16)[name = tensor("_inversed_scores_41_cast_fp16")]; + tensor scores_43_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_41_cast_fp16, cond = mask_3)[name = tensor("scores_43_cast_fp16")]; + tensor var_1956_cast_fp16 = softmax(axis = var_30, x = scores_43_cast_fp16)[name = tensor("op_1956_cast_fp16")]; + tensor input_535_cast_fp16 = select(a = var_21_to_fp16, b = var_1956_cast_fp16, cond = mask_3)[name = tensor("input_535_cast_fp16")]; tensor x_231_transpose_x_0 = const()[name = tensor("x_231_transpose_x_0"), val = tensor(false)]; tensor x_231_transpose_y_0 = const()[name = tensor("x_231_transpose_y_0"), val = tensor(false)]; - tensor value_21_cast_fp16 = transpose(perm = value_21_perm_0, x = v_21_cast_fp16)[name = tensor("transpose_241")]; - tensor x_231_cast_fp16 = matmul(transpose_x = x_231_transpose_x_0, transpose_y = x_231_transpose_y_0, x = input_535_cast_fp16, y = value_21_cast_fp16)[name = tensor("x_231_cast_fp16")]; + tensor value_21_cast_fp16 = transpose(perm = value_21_perm_0, x = v_21_cast_fp16)[name = tensor("transpose_241")]; + tensor x_231_cast_fp16 = matmul(transpose_x = x_231_transpose_x_0, transpose_y = x_231_transpose_y_0, x = input_535_cast_fp16, y = value_21_cast_fp16)[name = tensor("x_231_cast_fp16")]; tensor var_1960_perm_0 = const()[name = tensor("op_1960_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_1961 = const()[name = tensor("op_1961"), val = tensor([1, -1, 512])]; - tensor var_1960_cast_fp16 = transpose(perm = var_1960_perm_0, x = x_231_cast_fp16)[name = tensor("transpose_237")]; - tensor input_537_cast_fp16 = reshape(shape = var_1961, x = var_1960_cast_fp16)[name = tensor("input_537_cast_fp16")]; - tensor model_encoder_layers_10_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(132231168)))]; - tensor model_encoder_layers_10_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(132755520)))]; - tensor linear_96_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_out_weight_to_fp16, x = input_537_cast_fp16)[name = tensor("linear_96_cast_fp16")]; - tensor input_541_cast_fp16 = add(x = input_533_cast_fp16, y = linear_96_cast_fp16)[name = tensor("input_541_cast_fp16")]; + tensor var_1960_cast_fp16 = transpose(perm = var_1960_perm_0, x = x_231_cast_fp16)[name = tensor("transpose_237")]; + tensor input_537_cast_fp16 = reshape(shape = var_1961, x = var_1960_cast_fp16)[name = tensor("input_537_cast_fp16")]; + tensor model_encoder_layers_10_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(135565312)))]; + tensor model_encoder_layers_10_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(136089664)))]; + tensor linear_96_cast_fp16 = linear(bias = model_encoder_layers_10_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_10_self_attn_linear_out_weight_to_fp16, x = input_537_cast_fp16)[name = tensor("linear_96_cast_fp16")]; + tensor input_541_cast_fp16 = add(x = input_533_cast_fp16, y = linear_96_cast_fp16)[name = tensor("input_541_cast_fp16")]; tensor x_235_axes_0 = const()[name = tensor("x_235_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_10_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(132756608)))]; - tensor model_encoder_layers_10_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(132757696)))]; - tensor x_235_cast_fp16 = layer_norm(axes = x_235_axes_0, beta = model_encoder_layers_10_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_conv_weight_to_fp16, x = input_541_cast_fp16)[name = tensor("x_235_cast_fp16")]; + tensor model_encoder_layers_10_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(136090752)))]; + tensor model_encoder_layers_10_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(136091840)))]; + tensor x_235_cast_fp16 = layer_norm(axes = x_235_axes_0, beta = model_encoder_layers_10_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_conv_weight_to_fp16, x = input_541_cast_fp16)[name = tensor("x_235_cast_fp16")]; tensor input_543_perm_0 = const()[name = tensor("input_543_perm_0"), val = tensor([0, 2, 1])]; tensor input_545_pad_type_0 = const()[name = tensor("input_545_pad_type_0"), val = tensor("valid")]; tensor input_545_strides_0 = const()[name = tensor("input_545_strides_0"), val = tensor([1])]; tensor input_545_pad_0 = const()[name = tensor("input_545_pad_0"), val = tensor([0, 0])]; tensor input_545_dilations_0 = const()[name = tensor("input_545_dilations_0"), val = tensor([1])]; tensor input_545_groups_0 = const()[name = tensor("input_545_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_10_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(132758784)))]; - tensor model_encoder_layers_10_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133807424)))]; - tensor input_543_cast_fp16 = transpose(perm = input_543_perm_0, x = x_235_cast_fp16)[name = tensor("transpose_236")]; - tensor input_545_cast_fp16 = conv(bias = model_encoder_layers_10_conv_pointwise_conv1_bias_to_fp16, dilations = input_545_dilations_0, groups = input_545_groups_0, pad = input_545_pad_0, pad_type = input_545_pad_type_0, strides = input_545_strides_0, weight = model_encoder_layers_10_conv_pointwise_conv1_weight_to_fp16, x = input_543_cast_fp16)[name = tensor("input_545_cast_fp16")]; + tensor model_encoder_layers_10_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(136092928)))]; + tensor model_encoder_layers_10_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137141568)))]; + tensor input_543_cast_fp16 = transpose(perm = input_543_perm_0, x = x_235_cast_fp16)[name = tensor("transpose_236")]; + tensor input_545_cast_fp16 = conv(bias = model_encoder_layers_10_conv_pointwise_conv1_bias_to_fp16, dilations = input_545_dilations_0, groups = input_545_groups_0, pad = input_545_pad_0, pad_type = input_545_pad_type_0, strides = input_545_strides_0, weight = model_encoder_layers_10_conv_pointwise_conv1_weight_to_fp16, x = input_543_cast_fp16)[name = tensor("input_545_cast_fp16")]; tensor x_237_split_num_splits_0 = const()[name = tensor("x_237_split_num_splits_0"), val = tensor(2)]; tensor x_237_split_axis_0 = const()[name = tensor("x_237_split_axis_0"), val = tensor(1)]; - tensor x_237_split_cast_fp16_0, tensor x_237_split_cast_fp16_1 = split(axis = x_237_split_axis_0, num_splits = x_237_split_num_splits_0, x = input_545_cast_fp16)[name = tensor("x_237_split_cast_fp16")]; - tensor x_237_split_1_sigmoid_cast_fp16 = sigmoid(x = x_237_split_cast_fp16_1)[name = tensor("x_237_split_1_sigmoid_cast_fp16")]; - tensor x_237_cast_fp16 = mul(x = x_237_split_cast_fp16_0, y = x_237_split_1_sigmoid_cast_fp16)[name = tensor("x_237_cast_fp16")]; - tensor input_547_cast_fp16 = select(a = var_21_to_fp16, b = x_237_cast_fp16, cond = var_245)[name = tensor("input_547_cast_fp16")]; + tensor x_237_split_cast_fp16_0, tensor x_237_split_cast_fp16_1 = split(axis = x_237_split_axis_0, num_splits = x_237_split_num_splits_0, x = input_545_cast_fp16)[name = tensor("x_237_split_cast_fp16")]; + tensor x_237_split_1_sigmoid_cast_fp16 = sigmoid(x = x_237_split_cast_fp16_1)[name = tensor("x_237_split_1_sigmoid_cast_fp16")]; + tensor x_237_cast_fp16 = mul(x = x_237_split_cast_fp16_0, y = x_237_split_1_sigmoid_cast_fp16)[name = tensor("x_237_cast_fp16")]; + tensor input_547_cast_fp16 = select(a = var_21_to_fp16, b = x_237_cast_fp16, cond = var_245)[name = tensor("input_547_cast_fp16")]; tensor input_549_pad_0 = const()[name = tensor("input_549_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_549_mode_0 = const()[name = tensor("input_549_mode_0"), val = tensor("constant")]; tensor const_115_to_fp16 = const()[name = tensor("const_115_to_fp16"), val = tensor(0x0p+0)]; - tensor input_549_cast_fp16 = pad(constant_val = const_115_to_fp16, mode = input_549_mode_0, pad = input_549_pad_0, x = input_547_cast_fp16)[name = tensor("input_549_cast_fp16")]; + tensor input_549_cast_fp16 = pad(constant_val = const_115_to_fp16, mode = input_549_mode_0, pad = input_549_pad_0, x = input_547_cast_fp16)[name = tensor("input_549_cast_fp16")]; tensor input_551_pad_type_0 = const()[name = tensor("input_551_pad_type_0"), val = tensor("valid")]; tensor input_551_groups_0 = const()[name = tensor("input_551_groups_0"), val = tensor(512)]; tensor input_551_strides_0 = const()[name = tensor("input_551_strides_0"), val = tensor([1])]; tensor input_551_pad_0 = const()[name = tensor("input_551_pad_0"), val = tensor([0, 0])]; tensor input_551_dilations_0 = const()[name = tensor("input_551_dilations_0"), val = tensor([1])]; - tensor const_362_to_fp16 = const()[name = tensor("const_362_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133809536)))]; - tensor const_363_to_fp16 = const()[name = tensor("const_363_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133818816)))]; - tensor input_553_cast_fp16 = conv(bias = const_363_to_fp16, dilations = input_551_dilations_0, groups = input_551_groups_0, pad = input_551_pad_0, pad_type = input_551_pad_type_0, strides = input_551_strides_0, weight = const_362_to_fp16, x = input_549_cast_fp16)[name = tensor("input_553_cast_fp16")]; - tensor input_555_cast_fp16 = silu(x = input_553_cast_fp16)[name = tensor("input_555_cast_fp16")]; + tensor const_362_to_fp16 = const()[name = tensor("const_362_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137143680)))]; + tensor const_363_to_fp16 = const()[name = tensor("const_363_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137152960)))]; + tensor input_553_cast_fp16 = conv(bias = const_363_to_fp16, dilations = input_551_dilations_0, groups = input_551_groups_0, pad = input_551_pad_0, pad_type = input_551_pad_type_0, strides = input_551_strides_0, weight = const_362_to_fp16, x = input_549_cast_fp16)[name = tensor("input_553_cast_fp16")]; + tensor input_555_cast_fp16 = silu(x = input_553_cast_fp16)[name = tensor("input_555_cast_fp16")]; tensor x_239_pad_type_0 = const()[name = tensor("x_239_pad_type_0"), val = tensor("valid")]; tensor x_239_strides_0 = const()[name = tensor("x_239_strides_0"), val = tensor([1])]; tensor x_239_pad_0 = const()[name = tensor("x_239_pad_0"), val = tensor([0, 0])]; tensor x_239_dilations_0 = const()[name = tensor("x_239_dilations_0"), val = tensor([1])]; tensor x_239_groups_0 = const()[name = tensor("x_239_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_10_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(133819904)))]; - tensor model_encoder_layers_10_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134344256)))]; - tensor x_239_cast_fp16 = conv(bias = model_encoder_layers_10_conv_pointwise_conv2_bias_to_fp16, dilations = x_239_dilations_0, groups = x_239_groups_0, pad = x_239_pad_0, pad_type = x_239_pad_type_0, strides = x_239_strides_0, weight = model_encoder_layers_10_conv_pointwise_conv2_weight_to_fp16, x = input_555_cast_fp16)[name = tensor("x_239_cast_fp16")]; + tensor model_encoder_layers_10_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137154048)))]; + tensor model_encoder_layers_10_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137678400)))]; + tensor x_239_cast_fp16 = conv(bias = model_encoder_layers_10_conv_pointwise_conv2_bias_to_fp16, dilations = x_239_dilations_0, groups = x_239_groups_0, pad = x_239_pad_0, pad_type = x_239_pad_type_0, strides = x_239_strides_0, weight = model_encoder_layers_10_conv_pointwise_conv2_weight_to_fp16, x = input_555_cast_fp16)[name = tensor("x_239_cast_fp16")]; tensor input_557_perm_0 = const()[name = tensor("input_557_perm_0"), val = tensor([0, 2, 1])]; - tensor input_557_cast_fp16 = transpose(perm = input_557_perm_0, x = x_239_cast_fp16)[name = tensor("transpose_235")]; - tensor input_559_cast_fp16 = add(x = input_541_cast_fp16, y = input_557_cast_fp16)[name = tensor("input_559_cast_fp16")]; + tensor input_557_cast_fp16 = transpose(perm = input_557_perm_0, x = x_239_cast_fp16)[name = tensor("transpose_235")]; + tensor input_559_cast_fp16 = add(x = input_541_cast_fp16, y = input_557_cast_fp16)[name = tensor("input_559_cast_fp16")]; tensor input_561_axes_0 = const()[name = tensor("input_561_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_10_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134345344)))]; - tensor model_encoder_layers_10_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134346432)))]; - tensor input_561_cast_fp16 = layer_norm(axes = input_561_axes_0, beta = model_encoder_layers_10_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_feed_forward2_weight_to_fp16, x = input_559_cast_fp16)[name = tensor("input_561_cast_fp16")]; - tensor model_encoder_layers_10_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(134347520)))]; - tensor model_encoder_layers_10_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(136444736)))]; - tensor linear_97_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_10_feed_forward2_linear1_weight_to_fp16, x = input_561_cast_fp16)[name = tensor("linear_97_cast_fp16")]; - tensor input_565_cast_fp16 = silu(x = linear_97_cast_fp16)[name = tensor("input_565_cast_fp16")]; - tensor model_encoder_layers_10_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(136448896)))]; - tensor model_encoder_layers_10_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(138546112)))]; - tensor linear_98_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_10_feed_forward2_linear2_weight_to_fp16, x = input_565_cast_fp16)[name = tensor("linear_98_cast_fp16")]; + tensor model_encoder_layers_10_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137679488)))]; + tensor model_encoder_layers_10_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137680576)))]; + tensor input_561_cast_fp16 = layer_norm(axes = input_561_axes_0, beta = model_encoder_layers_10_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_feed_forward2_weight_to_fp16, x = input_559_cast_fp16)[name = tensor("input_561_cast_fp16")]; + tensor model_encoder_layers_10_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(137681664)))]; + tensor model_encoder_layers_10_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(139778880)))]; + tensor linear_97_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_10_feed_forward2_linear1_weight_to_fp16, x = input_561_cast_fp16)[name = tensor("linear_97_cast_fp16")]; + tensor input_565_cast_fp16 = silu(x = linear_97_cast_fp16)[name = tensor("input_565_cast_fp16")]; + tensor model_encoder_layers_10_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(139783040)))]; + tensor model_encoder_layers_10_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(141880256)))]; + tensor linear_98_cast_fp16 = linear(bias = model_encoder_layers_10_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_10_feed_forward2_linear2_weight_to_fp16, x = input_565_cast_fp16)[name = tensor("linear_98_cast_fp16")]; tensor var_2027_to_fp16 = const()[name = tensor("op_2027_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2028_cast_fp16 = mul(x = linear_98_cast_fp16, y = var_2027_to_fp16)[name = tensor("op_2028_cast_fp16")]; - tensor input_571_cast_fp16 = add(x = input_559_cast_fp16, y = var_2028_cast_fp16)[name = tensor("input_571_cast_fp16")]; + tensor var_2028_cast_fp16 = mul(x = linear_98_cast_fp16, y = var_2027_to_fp16)[name = tensor("op_2028_cast_fp16")]; + tensor input_571_cast_fp16 = add(x = input_559_cast_fp16, y = var_2028_cast_fp16)[name = tensor("input_571_cast_fp16")]; tensor input_573_axes_0 = const()[name = tensor("input_573_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_10_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(138547200)))]; - tensor model_encoder_layers_10_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(138548288)))]; - tensor input_573_cast_fp16 = layer_norm(axes = input_573_axes_0, beta = model_encoder_layers_10_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_out_weight_to_fp16, x = input_571_cast_fp16)[name = tensor("input_573_cast_fp16")]; + tensor model_encoder_layers_10_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(141881344)))]; + tensor model_encoder_layers_10_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_10_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(141882432)))]; + tensor input_573_cast_fp16 = layer_norm(axes = input_573_axes_0, beta = model_encoder_layers_10_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_10_norm_out_weight_to_fp16, x = input_571_cast_fp16)[name = tensor("input_573_cast_fp16")]; tensor input_575_axes_0 = const()[name = tensor("input_575_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_11_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(138549376)))]; - tensor model_encoder_layers_11_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(138550464)))]; - tensor input_575_cast_fp16 = layer_norm(axes = input_575_axes_0, beta = model_encoder_layers_11_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_feed_forward1_weight_to_fp16, x = input_573_cast_fp16)[name = tensor("input_575_cast_fp16")]; - tensor model_encoder_layers_11_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(138551552)))]; - tensor model_encoder_layers_11_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(140648768)))]; - tensor linear_99_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_11_feed_forward1_linear1_weight_to_fp16, x = input_575_cast_fp16)[name = tensor("linear_99_cast_fp16")]; - tensor input_579_cast_fp16 = silu(x = linear_99_cast_fp16)[name = tensor("input_579_cast_fp16")]; - tensor model_encoder_layers_11_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(140652928)))]; - tensor model_encoder_layers_11_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(142750144)))]; - tensor linear_100_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_11_feed_forward1_linear2_weight_to_fp16, x = input_579_cast_fp16)[name = tensor("linear_100_cast_fp16")]; + tensor model_encoder_layers_11_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(141883520)))]; + tensor model_encoder_layers_11_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(141884608)))]; + tensor input_575_cast_fp16 = layer_norm(axes = input_575_axes_0, beta = model_encoder_layers_11_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_feed_forward1_weight_to_fp16, x = input_573_cast_fp16)[name = tensor("input_575_cast_fp16")]; + tensor model_encoder_layers_11_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(141885696)))]; + tensor model_encoder_layers_11_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(143982912)))]; + tensor linear_99_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_11_feed_forward1_linear1_weight_to_fp16, x = input_575_cast_fp16)[name = tensor("linear_99_cast_fp16")]; + tensor input_579_cast_fp16 = silu(x = linear_99_cast_fp16)[name = tensor("input_579_cast_fp16")]; + tensor model_encoder_layers_11_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(143987072)))]; + tensor model_encoder_layers_11_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146084288)))]; + tensor linear_100_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_11_feed_forward1_linear2_weight_to_fp16, x = input_579_cast_fp16)[name = tensor("linear_100_cast_fp16")]; tensor var_2058_to_fp16 = const()[name = tensor("op_2058_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2059_cast_fp16 = mul(x = linear_100_cast_fp16, y = var_2058_to_fp16)[name = tensor("op_2059_cast_fp16")]; - tensor input_585_cast_fp16 = add(x = input_573_cast_fp16, y = var_2059_cast_fp16)[name = tensor("input_585_cast_fp16")]; + tensor var_2059_cast_fp16 = mul(x = linear_100_cast_fp16, y = var_2058_to_fp16)[name = tensor("op_2059_cast_fp16")]; + tensor input_585_cast_fp16 = add(x = input_573_cast_fp16, y = var_2059_cast_fp16)[name = tensor("input_585_cast_fp16")]; tensor query_23_axes_0 = const()[name = tensor("query_23_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_11_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(142751232)))]; - tensor model_encoder_layers_11_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(142752320)))]; - tensor query_23_cast_fp16 = layer_norm(axes = query_23_axes_0, beta = model_encoder_layers_11_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_self_att_weight_to_fp16, x = input_585_cast_fp16)[name = tensor("query_23_cast_fp16")]; - tensor model_encoder_layers_11_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(142753408)))]; - tensor model_encoder_layers_11_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(143277760)))]; - tensor linear_101_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_q_weight_to_fp16, x = query_23_cast_fp16)[name = tensor("linear_101_cast_fp16")]; + tensor model_encoder_layers_11_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146085376)))]; + tensor model_encoder_layers_11_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146086464)))]; + tensor query_23_cast_fp16 = layer_norm(axes = query_23_axes_0, beta = model_encoder_layers_11_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_self_att_weight_to_fp16, x = input_585_cast_fp16)[name = tensor("query_23_cast_fp16")]; + tensor model_encoder_layers_11_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146087552)))]; + tensor model_encoder_layers_11_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146611904)))]; + tensor linear_101_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_q_weight_to_fp16, x = query_23_cast_fp16)[name = tensor("linear_101_cast_fp16")]; tensor var_2076 = const()[name = tensor("op_2076"), val = tensor([1, -1, 8, 64])]; - tensor q_67_cast_fp16 = reshape(shape = var_2076, x = linear_101_cast_fp16)[name = tensor("q_67_cast_fp16")]; - tensor model_encoder_layers_11_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(143278848)))]; - tensor model_encoder_layers_11_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(143803200)))]; - tensor linear_102_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_k_weight_to_fp16, x = query_23_cast_fp16)[name = tensor("linear_102_cast_fp16")]; + tensor q_67_cast_fp16 = reshape(shape = var_2076, x = linear_101_cast_fp16)[name = tensor("q_67_cast_fp16")]; + tensor model_encoder_layers_11_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146612992)))]; + tensor model_encoder_layers_11_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(147137344)))]; + tensor linear_102_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_k_weight_to_fp16, x = query_23_cast_fp16)[name = tensor("linear_102_cast_fp16")]; tensor var_2081 = const()[name = tensor("op_2081"), val = tensor([1, -1, 8, 64])]; - tensor k_45_cast_fp16 = reshape(shape = var_2081, x = linear_102_cast_fp16)[name = tensor("k_45_cast_fp16")]; - tensor model_encoder_layers_11_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(143804288)))]; - tensor model_encoder_layers_11_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(144328640)))]; - tensor linear_103_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_v_weight_to_fp16, x = query_23_cast_fp16)[name = tensor("linear_103_cast_fp16")]; + tensor k_45_cast_fp16 = reshape(shape = var_2081, x = linear_102_cast_fp16)[name = tensor("k_45_cast_fp16")]; + tensor model_encoder_layers_11_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(147138432)))]; + tensor model_encoder_layers_11_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(147662784)))]; + tensor linear_103_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_v_weight_to_fp16, x = query_23_cast_fp16)[name = tensor("linear_103_cast_fp16")]; tensor var_2086 = const()[name = tensor("op_2086"), val = tensor([1, -1, 8, 64])]; - tensor v_23_cast_fp16 = reshape(shape = var_2086, x = linear_103_cast_fp16)[name = tensor("v_23_cast_fp16")]; + tensor v_23_cast_fp16 = reshape(shape = var_2086, x = linear_103_cast_fp16)[name = tensor("v_23_cast_fp16")]; tensor value_23_perm_0 = const()[name = tensor("value_23_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_11_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(144329728)))]; - tensor var_2098_cast_fp16 = add(x = q_67_cast_fp16, y = model_encoder_layers_11_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2098_cast_fp16")]; - tensor model_encoder_layers_11_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(144330816)))]; - tensor var_2100_cast_fp16 = add(x = q_67_cast_fp16, y = model_encoder_layers_11_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2100_cast_fp16")]; + tensor model_encoder_layers_11_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(147663872)))]; + tensor var_2098_cast_fp16 = add(x = q_67_cast_fp16, y = model_encoder_layers_11_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2098_cast_fp16")]; + tensor model_encoder_layers_11_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(147664960)))]; + tensor var_2100_cast_fp16 = add(x = q_67_cast_fp16, y = model_encoder_layers_11_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2100_cast_fp16")]; tensor q_with_bias_v_23_perm_0 = const()[name = tensor("q_with_bias_v_23_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_247_transpose_x_0 = const()[name = tensor("x_247_transpose_x_0"), val = tensor(false)]; tensor x_247_transpose_y_0 = const()[name = tensor("x_247_transpose_y_0"), val = tensor(false)]; - tensor var_2102_to_fp16 = const()[name = tensor("op_2102_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(144331904)))]; - tensor q_with_bias_v_23_cast_fp16 = transpose(perm = q_with_bias_v_23_perm_0, x = var_2100_cast_fp16)[name = tensor("transpose_233")]; - tensor x_247_cast_fp16 = matmul(transpose_x = x_247_transpose_x_0, transpose_y = x_247_transpose_y_0, x = q_with_bias_v_23_cast_fp16, y = var_2102_to_fp16)[name = tensor("x_247_cast_fp16")]; + tensor var_2102_to_fp16 = const()[name = tensor("op_2102_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(147666048)))]; + tensor q_with_bias_v_23_cast_fp16 = transpose(perm = q_with_bias_v_23_perm_0, x = var_2100_cast_fp16)[name = tensor("transpose_233")]; + tensor x_247_cast_fp16 = matmul(transpose_x = x_247_transpose_x_0, transpose_y = x_247_transpose_y_0, x = q_with_bias_v_23_cast_fp16, y = var_2102_to_fp16)[name = tensor("x_247_cast_fp16")]; tensor x_249_pad_0 = const()[name = tensor("x_249_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_249_mode_0 = const()[name = tensor("x_249_mode_0"), val = tensor("constant")]; tensor const_122_to_fp16 = const()[name = tensor("const_122_to_fp16"), val = tensor(0x0p+0)]; - tensor x_249_cast_fp16 = pad(constant_val = const_122_to_fp16, mode = x_249_mode_0, pad = x_249_pad_0, x = x_247_cast_fp16)[name = tensor("x_249_cast_fp16")]; - tensor var_2110 = const()[name = tensor("op_2110"), val = tensor([1, 8, -1, 242])]; - tensor x_251_cast_fp16 = reshape(shape = var_2110, x = x_249_cast_fp16)[name = tensor("x_251_cast_fp16")]; + tensor x_249_cast_fp16 = pad(constant_val = const_122_to_fp16, mode = x_249_mode_0, pad = x_249_pad_0, x = x_247_cast_fp16)[name = tensor("x_249_cast_fp16")]; + tensor var_2110 = const()[name = tensor("op_2110"), val = tensor([1, 8, -1, 390])]; + tensor x_251_cast_fp16 = reshape(shape = var_2110, x = x_249_cast_fp16)[name = tensor("x_251_cast_fp16")]; tensor var_2114_begin_0 = const()[name = tensor("op_2114_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_2114_end_0 = const()[name = tensor("op_2114_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_2114_end_0 = const()[name = tensor("op_2114_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_2114_end_mask_0 = const()[name = tensor("op_2114_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_2114_cast_fp16 = slice_by_index(begin = var_2114_begin_0, end = var_2114_end_0, end_mask = var_2114_end_mask_0, x = x_251_cast_fp16)[name = tensor("op_2114_cast_fp16")]; - tensor var_2115 = const()[name = tensor("op_2115"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_45_cast_fp16 = reshape(shape = var_2115, x = var_2114_cast_fp16)[name = tensor("matrix_bd_45_cast_fp16")]; + tensor var_2114_cast_fp16 = slice_by_index(begin = var_2114_begin_0, end = var_2114_end_0, end_mask = var_2114_end_mask_0, x = x_251_cast_fp16)[name = tensor("op_2114_cast_fp16")]; + tensor var_2115 = const()[name = tensor("op_2115"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_45_cast_fp16 = reshape(shape = var_2115, x = var_2114_cast_fp16)[name = tensor("matrix_bd_45_cast_fp16")]; tensor matrix_ac_23_transpose_x_0 = const()[name = tensor("matrix_ac_23_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_23_transpose_y_0 = const()[name = tensor("matrix_ac_23_transpose_y_0"), val = tensor(false)]; tensor transpose_73_perm_0 = const()[name = tensor("transpose_73_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_74_perm_0 = const()[name = tensor("transpose_74_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_74 = transpose(perm = transpose_74_perm_0, x = k_45_cast_fp16)[name = tensor("transpose_231")]; - tensor transpose_73 = transpose(perm = transpose_73_perm_0, x = var_2098_cast_fp16)[name = tensor("transpose_232")]; - tensor matrix_ac_23_cast_fp16 = matmul(transpose_x = matrix_ac_23_transpose_x_0, transpose_y = matrix_ac_23_transpose_y_0, x = transpose_73, y = transpose_74)[name = tensor("matrix_ac_23_cast_fp16")]; + tensor transpose_74 = transpose(perm = transpose_74_perm_0, x = k_45_cast_fp16)[name = tensor("transpose_231")]; + tensor transpose_73 = transpose(perm = transpose_73_perm_0, x = var_2098_cast_fp16)[name = tensor("transpose_232")]; + tensor matrix_ac_23_cast_fp16 = matmul(transpose_x = matrix_ac_23_transpose_x_0, transpose_y = matrix_ac_23_transpose_y_0, x = transpose_73, y = transpose_74)[name = tensor("matrix_ac_23_cast_fp16")]; tensor matrix_bd_47_begin_0 = const()[name = tensor("matrix_bd_47_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_47_end_0 = const()[name = tensor("matrix_bd_47_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_47_end_0 = const()[name = tensor("matrix_bd_47_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_47_end_mask_0 = const()[name = tensor("matrix_bd_47_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_47_cast_fp16 = slice_by_index(begin = matrix_bd_47_begin_0, end = matrix_bd_47_end_0, end_mask = matrix_bd_47_end_mask_0, x = matrix_bd_45_cast_fp16)[name = tensor("matrix_bd_47_cast_fp16")]; - tensor var_2124_cast_fp16 = add(x = matrix_ac_23_cast_fp16, y = matrix_bd_47_cast_fp16)[name = tensor("op_2124_cast_fp16")]; + tensor matrix_bd_47_cast_fp16 = slice_by_index(begin = matrix_bd_47_begin_0, end = matrix_bd_47_end_0, end_mask = matrix_bd_47_end_mask_0, x = matrix_bd_45_cast_fp16)[name = tensor("matrix_bd_47_cast_fp16")]; + tensor var_2124_cast_fp16 = add(x = matrix_ac_23_cast_fp16, y = matrix_bd_47_cast_fp16)[name = tensor("op_2124_cast_fp16")]; tensor _inversed_scores_45_y_0_to_fp16 = const()[name = tensor("_inversed_scores_45_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_45_cast_fp16 = mul(x = var_2124_cast_fp16, y = _inversed_scores_45_y_0_to_fp16)[name = tensor("_inversed_scores_45_cast_fp16")]; - tensor scores_47_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_45_cast_fp16, cond = mask_3)[name = tensor("scores_47_cast_fp16")]; - tensor var_2130_cast_fp16 = softmax(axis = var_30, x = scores_47_cast_fp16)[name = tensor("op_2130_cast_fp16")]; - tensor input_587_cast_fp16 = select(a = var_21_to_fp16, b = var_2130_cast_fp16, cond = mask_3)[name = tensor("input_587_cast_fp16")]; + tensor _inversed_scores_45_cast_fp16 = mul(x = var_2124_cast_fp16, y = _inversed_scores_45_y_0_to_fp16)[name = tensor("_inversed_scores_45_cast_fp16")]; + tensor scores_47_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_45_cast_fp16, cond = mask_3)[name = tensor("scores_47_cast_fp16")]; + tensor var_2130_cast_fp16 = softmax(axis = var_30, x = scores_47_cast_fp16)[name = tensor("op_2130_cast_fp16")]; + tensor input_587_cast_fp16 = select(a = var_21_to_fp16, b = var_2130_cast_fp16, cond = mask_3)[name = tensor("input_587_cast_fp16")]; tensor x_253_transpose_x_0 = const()[name = tensor("x_253_transpose_x_0"), val = tensor(false)]; tensor x_253_transpose_y_0 = const()[name = tensor("x_253_transpose_y_0"), val = tensor(false)]; - tensor value_23_cast_fp16 = transpose(perm = value_23_perm_0, x = v_23_cast_fp16)[name = tensor("transpose_234")]; - tensor x_253_cast_fp16 = matmul(transpose_x = x_253_transpose_x_0, transpose_y = x_253_transpose_y_0, x = input_587_cast_fp16, y = value_23_cast_fp16)[name = tensor("x_253_cast_fp16")]; + tensor value_23_cast_fp16 = transpose(perm = value_23_perm_0, x = v_23_cast_fp16)[name = tensor("transpose_234")]; + tensor x_253_cast_fp16 = matmul(transpose_x = x_253_transpose_x_0, transpose_y = x_253_transpose_y_0, x = input_587_cast_fp16, y = value_23_cast_fp16)[name = tensor("x_253_cast_fp16")]; tensor var_2134_perm_0 = const()[name = tensor("op_2134_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_2135 = const()[name = tensor("op_2135"), val = tensor([1, -1, 512])]; - tensor var_2134_cast_fp16 = transpose(perm = var_2134_perm_0, x = x_253_cast_fp16)[name = tensor("transpose_230")]; - tensor input_589_cast_fp16 = reshape(shape = var_2135, x = var_2134_cast_fp16)[name = tensor("input_589_cast_fp16")]; - tensor model_encoder_layers_11_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(144826560)))]; - tensor model_encoder_layers_11_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(145350912)))]; - tensor linear_105_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_out_weight_to_fp16, x = input_589_cast_fp16)[name = tensor("linear_105_cast_fp16")]; - tensor input_593_cast_fp16 = add(x = input_585_cast_fp16, y = linear_105_cast_fp16)[name = tensor("input_593_cast_fp16")]; + tensor var_2134_cast_fp16 = transpose(perm = var_2134_perm_0, x = x_253_cast_fp16)[name = tensor("transpose_230")]; + tensor input_589_cast_fp16 = reshape(shape = var_2135, x = var_2134_cast_fp16)[name = tensor("input_589_cast_fp16")]; + tensor model_encoder_layers_11_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(148463808)))]; + tensor model_encoder_layers_11_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(148988160)))]; + tensor linear_105_cast_fp16 = linear(bias = model_encoder_layers_11_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_11_self_attn_linear_out_weight_to_fp16, x = input_589_cast_fp16)[name = tensor("linear_105_cast_fp16")]; + tensor input_593_cast_fp16 = add(x = input_585_cast_fp16, y = linear_105_cast_fp16)[name = tensor("input_593_cast_fp16")]; tensor x_257_axes_0 = const()[name = tensor("x_257_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_11_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(145352000)))]; - tensor model_encoder_layers_11_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(145353088)))]; - tensor x_257_cast_fp16 = layer_norm(axes = x_257_axes_0, beta = model_encoder_layers_11_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_conv_weight_to_fp16, x = input_593_cast_fp16)[name = tensor("x_257_cast_fp16")]; + tensor model_encoder_layers_11_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(148989248)))]; + tensor model_encoder_layers_11_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(148990336)))]; + tensor x_257_cast_fp16 = layer_norm(axes = x_257_axes_0, beta = model_encoder_layers_11_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_conv_weight_to_fp16, x = input_593_cast_fp16)[name = tensor("x_257_cast_fp16")]; tensor input_595_perm_0 = const()[name = tensor("input_595_perm_0"), val = tensor([0, 2, 1])]; tensor input_597_pad_type_0 = const()[name = tensor("input_597_pad_type_0"), val = tensor("valid")]; tensor input_597_strides_0 = const()[name = tensor("input_597_strides_0"), val = tensor([1])]; tensor input_597_pad_0 = const()[name = tensor("input_597_pad_0"), val = tensor([0, 0])]; tensor input_597_dilations_0 = const()[name = tensor("input_597_dilations_0"), val = tensor([1])]; tensor input_597_groups_0 = const()[name = tensor("input_597_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_11_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(145354176)))]; - tensor model_encoder_layers_11_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146402816)))]; - tensor input_595_cast_fp16 = transpose(perm = input_595_perm_0, x = x_257_cast_fp16)[name = tensor("transpose_229")]; - tensor input_597_cast_fp16 = conv(bias = model_encoder_layers_11_conv_pointwise_conv1_bias_to_fp16, dilations = input_597_dilations_0, groups = input_597_groups_0, pad = input_597_pad_0, pad_type = input_597_pad_type_0, strides = input_597_strides_0, weight = model_encoder_layers_11_conv_pointwise_conv1_weight_to_fp16, x = input_595_cast_fp16)[name = tensor("input_597_cast_fp16")]; + tensor model_encoder_layers_11_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(148991424)))]; + tensor model_encoder_layers_11_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150040064)))]; + tensor input_595_cast_fp16 = transpose(perm = input_595_perm_0, x = x_257_cast_fp16)[name = tensor("transpose_229")]; + tensor input_597_cast_fp16 = conv(bias = model_encoder_layers_11_conv_pointwise_conv1_bias_to_fp16, dilations = input_597_dilations_0, groups = input_597_groups_0, pad = input_597_pad_0, pad_type = input_597_pad_type_0, strides = input_597_strides_0, weight = model_encoder_layers_11_conv_pointwise_conv1_weight_to_fp16, x = input_595_cast_fp16)[name = tensor("input_597_cast_fp16")]; tensor x_259_split_num_splits_0 = const()[name = tensor("x_259_split_num_splits_0"), val = tensor(2)]; tensor x_259_split_axis_0 = const()[name = tensor("x_259_split_axis_0"), val = tensor(1)]; - tensor x_259_split_cast_fp16_0, tensor x_259_split_cast_fp16_1 = split(axis = x_259_split_axis_0, num_splits = x_259_split_num_splits_0, x = input_597_cast_fp16)[name = tensor("x_259_split_cast_fp16")]; - tensor x_259_split_1_sigmoid_cast_fp16 = sigmoid(x = x_259_split_cast_fp16_1)[name = tensor("x_259_split_1_sigmoid_cast_fp16")]; - tensor x_259_cast_fp16 = mul(x = x_259_split_cast_fp16_0, y = x_259_split_1_sigmoid_cast_fp16)[name = tensor("x_259_cast_fp16")]; - tensor input_599_cast_fp16 = select(a = var_21_to_fp16, b = x_259_cast_fp16, cond = var_245)[name = tensor("input_599_cast_fp16")]; + tensor x_259_split_cast_fp16_0, tensor x_259_split_cast_fp16_1 = split(axis = x_259_split_axis_0, num_splits = x_259_split_num_splits_0, x = input_597_cast_fp16)[name = tensor("x_259_split_cast_fp16")]; + tensor x_259_split_1_sigmoid_cast_fp16 = sigmoid(x = x_259_split_cast_fp16_1)[name = tensor("x_259_split_1_sigmoid_cast_fp16")]; + tensor x_259_cast_fp16 = mul(x = x_259_split_cast_fp16_0, y = x_259_split_1_sigmoid_cast_fp16)[name = tensor("x_259_cast_fp16")]; + tensor input_599_cast_fp16 = select(a = var_21_to_fp16, b = x_259_cast_fp16, cond = var_245)[name = tensor("input_599_cast_fp16")]; tensor input_601_pad_0 = const()[name = tensor("input_601_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_601_mode_0 = const()[name = tensor("input_601_mode_0"), val = tensor("constant")]; tensor const_125_to_fp16 = const()[name = tensor("const_125_to_fp16"), val = tensor(0x0p+0)]; - tensor input_601_cast_fp16 = pad(constant_val = const_125_to_fp16, mode = input_601_mode_0, pad = input_601_pad_0, x = input_599_cast_fp16)[name = tensor("input_601_cast_fp16")]; + tensor input_601_cast_fp16 = pad(constant_val = const_125_to_fp16, mode = input_601_mode_0, pad = input_601_pad_0, x = input_599_cast_fp16)[name = tensor("input_601_cast_fp16")]; tensor input_603_pad_type_0 = const()[name = tensor("input_603_pad_type_0"), val = tensor("valid")]; tensor input_603_groups_0 = const()[name = tensor("input_603_groups_0"), val = tensor(512)]; tensor input_603_strides_0 = const()[name = tensor("input_603_strides_0"), val = tensor([1])]; tensor input_603_pad_0 = const()[name = tensor("input_603_pad_0"), val = tensor([0, 0])]; tensor input_603_dilations_0 = const()[name = tensor("input_603_dilations_0"), val = tensor([1])]; - tensor const_364_to_fp16 = const()[name = tensor("const_364_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146404928)))]; - tensor const_365_to_fp16 = const()[name = tensor("const_365_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146414208)))]; - tensor input_605_cast_fp16 = conv(bias = const_365_to_fp16, dilations = input_603_dilations_0, groups = input_603_groups_0, pad = input_603_pad_0, pad_type = input_603_pad_type_0, strides = input_603_strides_0, weight = const_364_to_fp16, x = input_601_cast_fp16)[name = tensor("input_605_cast_fp16")]; - tensor input_607_cast_fp16 = silu(x = input_605_cast_fp16)[name = tensor("input_607_cast_fp16")]; + tensor const_364_to_fp16 = const()[name = tensor("const_364_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150042176)))]; + tensor const_365_to_fp16 = const()[name = tensor("const_365_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150051456)))]; + tensor input_605_cast_fp16 = conv(bias = const_365_to_fp16, dilations = input_603_dilations_0, groups = input_603_groups_0, pad = input_603_pad_0, pad_type = input_603_pad_type_0, strides = input_603_strides_0, weight = const_364_to_fp16, x = input_601_cast_fp16)[name = tensor("input_605_cast_fp16")]; + tensor input_607_cast_fp16 = silu(x = input_605_cast_fp16)[name = tensor("input_607_cast_fp16")]; tensor x_261_pad_type_0 = const()[name = tensor("x_261_pad_type_0"), val = tensor("valid")]; tensor x_261_strides_0 = const()[name = tensor("x_261_strides_0"), val = tensor([1])]; tensor x_261_pad_0 = const()[name = tensor("x_261_pad_0"), val = tensor([0, 0])]; tensor x_261_dilations_0 = const()[name = tensor("x_261_dilations_0"), val = tensor([1])]; tensor x_261_groups_0 = const()[name = tensor("x_261_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_11_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146415296)))]; - tensor model_encoder_layers_11_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146939648)))]; - tensor x_261_cast_fp16 = conv(bias = model_encoder_layers_11_conv_pointwise_conv2_bias_to_fp16, dilations = x_261_dilations_0, groups = x_261_groups_0, pad = x_261_pad_0, pad_type = x_261_pad_type_0, strides = x_261_strides_0, weight = model_encoder_layers_11_conv_pointwise_conv2_weight_to_fp16, x = input_607_cast_fp16)[name = tensor("x_261_cast_fp16")]; + tensor model_encoder_layers_11_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150052544)))]; + tensor model_encoder_layers_11_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150576896)))]; + tensor x_261_cast_fp16 = conv(bias = model_encoder_layers_11_conv_pointwise_conv2_bias_to_fp16, dilations = x_261_dilations_0, groups = x_261_groups_0, pad = x_261_pad_0, pad_type = x_261_pad_type_0, strides = x_261_strides_0, weight = model_encoder_layers_11_conv_pointwise_conv2_weight_to_fp16, x = input_607_cast_fp16)[name = tensor("x_261_cast_fp16")]; tensor input_609_perm_0 = const()[name = tensor("input_609_perm_0"), val = tensor([0, 2, 1])]; - tensor input_609_cast_fp16 = transpose(perm = input_609_perm_0, x = x_261_cast_fp16)[name = tensor("transpose_228")]; - tensor input_611_cast_fp16 = add(x = input_593_cast_fp16, y = input_609_cast_fp16)[name = tensor("input_611_cast_fp16")]; + tensor input_609_cast_fp16 = transpose(perm = input_609_perm_0, x = x_261_cast_fp16)[name = tensor("transpose_228")]; + tensor input_611_cast_fp16 = add(x = input_593_cast_fp16, y = input_609_cast_fp16)[name = tensor("input_611_cast_fp16")]; tensor input_613_axes_0 = const()[name = tensor("input_613_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_11_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146940736)))]; - tensor model_encoder_layers_11_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146941824)))]; - tensor input_613_cast_fp16 = layer_norm(axes = input_613_axes_0, beta = model_encoder_layers_11_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_feed_forward2_weight_to_fp16, x = input_611_cast_fp16)[name = tensor("input_613_cast_fp16")]; - tensor model_encoder_layers_11_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(146942912)))]; - tensor model_encoder_layers_11_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(149040128)))]; - tensor linear_106_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_11_feed_forward2_linear1_weight_to_fp16, x = input_613_cast_fp16)[name = tensor("linear_106_cast_fp16")]; - tensor input_617_cast_fp16 = silu(x = linear_106_cast_fp16)[name = tensor("input_617_cast_fp16")]; - tensor model_encoder_layers_11_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(149044288)))]; - tensor model_encoder_layers_11_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(151141504)))]; - tensor linear_107_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_11_feed_forward2_linear2_weight_to_fp16, x = input_617_cast_fp16)[name = tensor("linear_107_cast_fp16")]; + tensor model_encoder_layers_11_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150577984)))]; + tensor model_encoder_layers_11_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150579072)))]; + tensor input_613_cast_fp16 = layer_norm(axes = input_613_axes_0, beta = model_encoder_layers_11_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_feed_forward2_weight_to_fp16, x = input_611_cast_fp16)[name = tensor("input_613_cast_fp16")]; + tensor model_encoder_layers_11_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(150580160)))]; + tensor model_encoder_layers_11_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(152677376)))]; + tensor linear_106_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_11_feed_forward2_linear1_weight_to_fp16, x = input_613_cast_fp16)[name = tensor("linear_106_cast_fp16")]; + tensor input_617_cast_fp16 = silu(x = linear_106_cast_fp16)[name = tensor("input_617_cast_fp16")]; + tensor model_encoder_layers_11_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(152681536)))]; + tensor model_encoder_layers_11_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(154778752)))]; + tensor linear_107_cast_fp16 = linear(bias = model_encoder_layers_11_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_11_feed_forward2_linear2_weight_to_fp16, x = input_617_cast_fp16)[name = tensor("linear_107_cast_fp16")]; tensor var_2201_to_fp16 = const()[name = tensor("op_2201_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2202_cast_fp16 = mul(x = linear_107_cast_fp16, y = var_2201_to_fp16)[name = tensor("op_2202_cast_fp16")]; - tensor input_623_cast_fp16 = add(x = input_611_cast_fp16, y = var_2202_cast_fp16)[name = tensor("input_623_cast_fp16")]; + tensor var_2202_cast_fp16 = mul(x = linear_107_cast_fp16, y = var_2201_to_fp16)[name = tensor("op_2202_cast_fp16")]; + tensor input_623_cast_fp16 = add(x = input_611_cast_fp16, y = var_2202_cast_fp16)[name = tensor("input_623_cast_fp16")]; tensor input_625_axes_0 = const()[name = tensor("input_625_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_11_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(151142592)))]; - tensor model_encoder_layers_11_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(151143680)))]; - tensor input_625_cast_fp16 = layer_norm(axes = input_625_axes_0, beta = model_encoder_layers_11_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_out_weight_to_fp16, x = input_623_cast_fp16)[name = tensor("input_625_cast_fp16")]; + tensor model_encoder_layers_11_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(154779840)))]; + tensor model_encoder_layers_11_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_11_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(154780928)))]; + tensor input_625_cast_fp16 = layer_norm(axes = input_625_axes_0, beta = model_encoder_layers_11_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_11_norm_out_weight_to_fp16, x = input_623_cast_fp16)[name = tensor("input_625_cast_fp16")]; tensor input_627_axes_0 = const()[name = tensor("input_627_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_12_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(151144768)))]; - tensor model_encoder_layers_12_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(151145856)))]; - tensor input_627_cast_fp16 = layer_norm(axes = input_627_axes_0, beta = model_encoder_layers_12_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_feed_forward1_weight_to_fp16, x = input_625_cast_fp16)[name = tensor("input_627_cast_fp16")]; - tensor model_encoder_layers_12_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(151146944)))]; - tensor model_encoder_layers_12_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(153244160)))]; - tensor linear_108_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_12_feed_forward1_linear1_weight_to_fp16, x = input_627_cast_fp16)[name = tensor("linear_108_cast_fp16")]; - tensor input_631_cast_fp16 = silu(x = linear_108_cast_fp16)[name = tensor("input_631_cast_fp16")]; - tensor model_encoder_layers_12_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(153248320)))]; - tensor model_encoder_layers_12_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(155345536)))]; - tensor linear_109_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_12_feed_forward1_linear2_weight_to_fp16, x = input_631_cast_fp16)[name = tensor("linear_109_cast_fp16")]; + tensor model_encoder_layers_12_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(154782016)))]; + tensor model_encoder_layers_12_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(154783104)))]; + tensor input_627_cast_fp16 = layer_norm(axes = input_627_axes_0, beta = model_encoder_layers_12_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_feed_forward1_weight_to_fp16, x = input_625_cast_fp16)[name = tensor("input_627_cast_fp16")]; + tensor model_encoder_layers_12_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(154784192)))]; + tensor model_encoder_layers_12_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156881408)))]; + tensor linear_108_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_12_feed_forward1_linear1_weight_to_fp16, x = input_627_cast_fp16)[name = tensor("linear_108_cast_fp16")]; + tensor input_631_cast_fp16 = silu(x = linear_108_cast_fp16)[name = tensor("input_631_cast_fp16")]; + tensor model_encoder_layers_12_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156885568)))]; + tensor model_encoder_layers_12_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(158982784)))]; + tensor linear_109_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_12_feed_forward1_linear2_weight_to_fp16, x = input_631_cast_fp16)[name = tensor("linear_109_cast_fp16")]; tensor var_2232_to_fp16 = const()[name = tensor("op_2232_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2233_cast_fp16 = mul(x = linear_109_cast_fp16, y = var_2232_to_fp16)[name = tensor("op_2233_cast_fp16")]; - tensor input_637_cast_fp16 = add(x = input_625_cast_fp16, y = var_2233_cast_fp16)[name = tensor("input_637_cast_fp16")]; + tensor var_2233_cast_fp16 = mul(x = linear_109_cast_fp16, y = var_2232_to_fp16)[name = tensor("op_2233_cast_fp16")]; + tensor input_637_cast_fp16 = add(x = input_625_cast_fp16, y = var_2233_cast_fp16)[name = tensor("input_637_cast_fp16")]; tensor query_25_axes_0 = const()[name = tensor("query_25_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_12_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(155346624)))]; - tensor model_encoder_layers_12_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(155347712)))]; - tensor query_25_cast_fp16 = layer_norm(axes = query_25_axes_0, beta = model_encoder_layers_12_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_self_att_weight_to_fp16, x = input_637_cast_fp16)[name = tensor("query_25_cast_fp16")]; - tensor model_encoder_layers_12_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(155348800)))]; - tensor model_encoder_layers_12_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(155873152)))]; - tensor linear_110_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_q_weight_to_fp16, x = query_25_cast_fp16)[name = tensor("linear_110_cast_fp16")]; + tensor model_encoder_layers_12_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(158983872)))]; + tensor model_encoder_layers_12_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(158984960)))]; + tensor query_25_cast_fp16 = layer_norm(axes = query_25_axes_0, beta = model_encoder_layers_12_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_self_att_weight_to_fp16, x = input_637_cast_fp16)[name = tensor("query_25_cast_fp16")]; + tensor model_encoder_layers_12_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(158986048)))]; + tensor model_encoder_layers_12_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159510400)))]; + tensor linear_110_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_q_weight_to_fp16, x = query_25_cast_fp16)[name = tensor("linear_110_cast_fp16")]; tensor var_2250 = const()[name = tensor("op_2250"), val = tensor([1, -1, 8, 64])]; - tensor q_73_cast_fp16 = reshape(shape = var_2250, x = linear_110_cast_fp16)[name = tensor("q_73_cast_fp16")]; - tensor model_encoder_layers_12_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(155874240)))]; - tensor model_encoder_layers_12_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156398592)))]; - tensor linear_111_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_k_weight_to_fp16, x = query_25_cast_fp16)[name = tensor("linear_111_cast_fp16")]; + tensor q_73_cast_fp16 = reshape(shape = var_2250, x = linear_110_cast_fp16)[name = tensor("q_73_cast_fp16")]; + tensor model_encoder_layers_12_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159511488)))]; + tensor model_encoder_layers_12_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(160035840)))]; + tensor linear_111_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_k_weight_to_fp16, x = query_25_cast_fp16)[name = tensor("linear_111_cast_fp16")]; tensor var_2255 = const()[name = tensor("op_2255"), val = tensor([1, -1, 8, 64])]; - tensor k_49_cast_fp16 = reshape(shape = var_2255, x = linear_111_cast_fp16)[name = tensor("k_49_cast_fp16")]; - tensor model_encoder_layers_12_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156399680)))]; - tensor model_encoder_layers_12_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156924032)))]; - tensor linear_112_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_v_weight_to_fp16, x = query_25_cast_fp16)[name = tensor("linear_112_cast_fp16")]; + tensor k_49_cast_fp16 = reshape(shape = var_2255, x = linear_111_cast_fp16)[name = tensor("k_49_cast_fp16")]; + tensor model_encoder_layers_12_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(160036928)))]; + tensor model_encoder_layers_12_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(160561280)))]; + tensor linear_112_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_v_weight_to_fp16, x = query_25_cast_fp16)[name = tensor("linear_112_cast_fp16")]; tensor var_2260 = const()[name = tensor("op_2260"), val = tensor([1, -1, 8, 64])]; - tensor v_25_cast_fp16 = reshape(shape = var_2260, x = linear_112_cast_fp16)[name = tensor("v_25_cast_fp16")]; + tensor v_25_cast_fp16 = reshape(shape = var_2260, x = linear_112_cast_fp16)[name = tensor("v_25_cast_fp16")]; tensor value_25_perm_0 = const()[name = tensor("value_25_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_12_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156925120)))]; - tensor var_2272_cast_fp16 = add(x = q_73_cast_fp16, y = model_encoder_layers_12_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2272_cast_fp16")]; - tensor model_encoder_layers_12_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156926208)))]; - tensor var_2274_cast_fp16 = add(x = q_73_cast_fp16, y = model_encoder_layers_12_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2274_cast_fp16")]; + tensor model_encoder_layers_12_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(160562368)))]; + tensor var_2272_cast_fp16 = add(x = q_73_cast_fp16, y = model_encoder_layers_12_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2272_cast_fp16")]; + tensor model_encoder_layers_12_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(160563456)))]; + tensor var_2274_cast_fp16 = add(x = q_73_cast_fp16, y = model_encoder_layers_12_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2274_cast_fp16")]; tensor q_with_bias_v_25_perm_0 = const()[name = tensor("q_with_bias_v_25_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_269_transpose_x_0 = const()[name = tensor("x_269_transpose_x_0"), val = tensor(false)]; tensor x_269_transpose_y_0 = const()[name = tensor("x_269_transpose_y_0"), val = tensor(false)]; - tensor var_2276_to_fp16 = const()[name = tensor("op_2276_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(156927296)))]; - tensor q_with_bias_v_25_cast_fp16 = transpose(perm = q_with_bias_v_25_perm_0, x = var_2274_cast_fp16)[name = tensor("transpose_226")]; - tensor x_269_cast_fp16 = matmul(transpose_x = x_269_transpose_x_0, transpose_y = x_269_transpose_y_0, x = q_with_bias_v_25_cast_fp16, y = var_2276_to_fp16)[name = tensor("x_269_cast_fp16")]; + tensor var_2276_to_fp16 = const()[name = tensor("op_2276_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(160564544)))]; + tensor q_with_bias_v_25_cast_fp16 = transpose(perm = q_with_bias_v_25_perm_0, x = var_2274_cast_fp16)[name = tensor("transpose_226")]; + tensor x_269_cast_fp16 = matmul(transpose_x = x_269_transpose_x_0, transpose_y = x_269_transpose_y_0, x = q_with_bias_v_25_cast_fp16, y = var_2276_to_fp16)[name = tensor("x_269_cast_fp16")]; tensor x_271_pad_0 = const()[name = tensor("x_271_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_271_mode_0 = const()[name = tensor("x_271_mode_0"), val = tensor("constant")]; tensor const_132_to_fp16 = const()[name = tensor("const_132_to_fp16"), val = tensor(0x0p+0)]; - tensor x_271_cast_fp16 = pad(constant_val = const_132_to_fp16, mode = x_271_mode_0, pad = x_271_pad_0, x = x_269_cast_fp16)[name = tensor("x_271_cast_fp16")]; - tensor var_2284 = const()[name = tensor("op_2284"), val = tensor([1, 8, -1, 242])]; - tensor x_273_cast_fp16 = reshape(shape = var_2284, x = x_271_cast_fp16)[name = tensor("x_273_cast_fp16")]; + tensor x_271_cast_fp16 = pad(constant_val = const_132_to_fp16, mode = x_271_mode_0, pad = x_271_pad_0, x = x_269_cast_fp16)[name = tensor("x_271_cast_fp16")]; + tensor var_2284 = const()[name = tensor("op_2284"), val = tensor([1, 8, -1, 390])]; + tensor x_273_cast_fp16 = reshape(shape = var_2284, x = x_271_cast_fp16)[name = tensor("x_273_cast_fp16")]; tensor var_2288_begin_0 = const()[name = tensor("op_2288_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_2288_end_0 = const()[name = tensor("op_2288_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_2288_end_0 = const()[name = tensor("op_2288_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_2288_end_mask_0 = const()[name = tensor("op_2288_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_2288_cast_fp16 = slice_by_index(begin = var_2288_begin_0, end = var_2288_end_0, end_mask = var_2288_end_mask_0, x = x_273_cast_fp16)[name = tensor("op_2288_cast_fp16")]; - tensor var_2289 = const()[name = tensor("op_2289"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_49_cast_fp16 = reshape(shape = var_2289, x = var_2288_cast_fp16)[name = tensor("matrix_bd_49_cast_fp16")]; + tensor var_2288_cast_fp16 = slice_by_index(begin = var_2288_begin_0, end = var_2288_end_0, end_mask = var_2288_end_mask_0, x = x_273_cast_fp16)[name = tensor("op_2288_cast_fp16")]; + tensor var_2289 = const()[name = tensor("op_2289"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_49_cast_fp16 = reshape(shape = var_2289, x = var_2288_cast_fp16)[name = tensor("matrix_bd_49_cast_fp16")]; tensor matrix_ac_25_transpose_x_0 = const()[name = tensor("matrix_ac_25_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_25_transpose_y_0 = const()[name = tensor("matrix_ac_25_transpose_y_0"), val = tensor(false)]; tensor transpose_75_perm_0 = const()[name = tensor("transpose_75_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_76_perm_0 = const()[name = tensor("transpose_76_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_76 = transpose(perm = transpose_76_perm_0, x = k_49_cast_fp16)[name = tensor("transpose_224")]; - tensor transpose_75 = transpose(perm = transpose_75_perm_0, x = var_2272_cast_fp16)[name = tensor("transpose_225")]; - tensor matrix_ac_25_cast_fp16 = matmul(transpose_x = matrix_ac_25_transpose_x_0, transpose_y = matrix_ac_25_transpose_y_0, x = transpose_75, y = transpose_76)[name = tensor("matrix_ac_25_cast_fp16")]; + tensor transpose_76 = transpose(perm = transpose_76_perm_0, x = k_49_cast_fp16)[name = tensor("transpose_224")]; + tensor transpose_75 = transpose(perm = transpose_75_perm_0, x = var_2272_cast_fp16)[name = tensor("transpose_225")]; + tensor matrix_ac_25_cast_fp16 = matmul(transpose_x = matrix_ac_25_transpose_x_0, transpose_y = matrix_ac_25_transpose_y_0, x = transpose_75, y = transpose_76)[name = tensor("matrix_ac_25_cast_fp16")]; tensor matrix_bd_51_begin_0 = const()[name = tensor("matrix_bd_51_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_51_end_0 = const()[name = tensor("matrix_bd_51_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_51_end_0 = const()[name = tensor("matrix_bd_51_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_51_end_mask_0 = const()[name = tensor("matrix_bd_51_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_51_cast_fp16 = slice_by_index(begin = matrix_bd_51_begin_0, end = matrix_bd_51_end_0, end_mask = matrix_bd_51_end_mask_0, x = matrix_bd_49_cast_fp16)[name = tensor("matrix_bd_51_cast_fp16")]; - tensor var_2298_cast_fp16 = add(x = matrix_ac_25_cast_fp16, y = matrix_bd_51_cast_fp16)[name = tensor("op_2298_cast_fp16")]; + tensor matrix_bd_51_cast_fp16 = slice_by_index(begin = matrix_bd_51_begin_0, end = matrix_bd_51_end_0, end_mask = matrix_bd_51_end_mask_0, x = matrix_bd_49_cast_fp16)[name = tensor("matrix_bd_51_cast_fp16")]; + tensor var_2298_cast_fp16 = add(x = matrix_ac_25_cast_fp16, y = matrix_bd_51_cast_fp16)[name = tensor("op_2298_cast_fp16")]; tensor _inversed_scores_49_y_0_to_fp16 = const()[name = tensor("_inversed_scores_49_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_49_cast_fp16 = mul(x = var_2298_cast_fp16, y = _inversed_scores_49_y_0_to_fp16)[name = tensor("_inversed_scores_49_cast_fp16")]; - tensor scores_51_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_49_cast_fp16, cond = mask_3)[name = tensor("scores_51_cast_fp16")]; - tensor var_2304_cast_fp16 = softmax(axis = var_30, x = scores_51_cast_fp16)[name = tensor("op_2304_cast_fp16")]; - tensor input_639_cast_fp16 = select(a = var_21_to_fp16, b = var_2304_cast_fp16, cond = mask_3)[name = tensor("input_639_cast_fp16")]; + tensor _inversed_scores_49_cast_fp16 = mul(x = var_2298_cast_fp16, y = _inversed_scores_49_y_0_to_fp16)[name = tensor("_inversed_scores_49_cast_fp16")]; + tensor scores_51_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_49_cast_fp16, cond = mask_3)[name = tensor("scores_51_cast_fp16")]; + tensor var_2304_cast_fp16 = softmax(axis = var_30, x = scores_51_cast_fp16)[name = tensor("op_2304_cast_fp16")]; + tensor input_639_cast_fp16 = select(a = var_21_to_fp16, b = var_2304_cast_fp16, cond = mask_3)[name = tensor("input_639_cast_fp16")]; tensor x_275_transpose_x_0 = const()[name = tensor("x_275_transpose_x_0"), val = tensor(false)]; tensor x_275_transpose_y_0 = const()[name = tensor("x_275_transpose_y_0"), val = tensor(false)]; - tensor value_25_cast_fp16 = transpose(perm = value_25_perm_0, x = v_25_cast_fp16)[name = tensor("transpose_227")]; - tensor x_275_cast_fp16 = matmul(transpose_x = x_275_transpose_x_0, transpose_y = x_275_transpose_y_0, x = input_639_cast_fp16, y = value_25_cast_fp16)[name = tensor("x_275_cast_fp16")]; + tensor value_25_cast_fp16 = transpose(perm = value_25_perm_0, x = v_25_cast_fp16)[name = tensor("transpose_227")]; + tensor x_275_cast_fp16 = matmul(transpose_x = x_275_transpose_x_0, transpose_y = x_275_transpose_y_0, x = input_639_cast_fp16, y = value_25_cast_fp16)[name = tensor("x_275_cast_fp16")]; tensor var_2308_perm_0 = const()[name = tensor("op_2308_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_2309 = const()[name = tensor("op_2309"), val = tensor([1, -1, 512])]; - tensor var_2308_cast_fp16 = transpose(perm = var_2308_perm_0, x = x_275_cast_fp16)[name = tensor("transpose_223")]; - tensor input_641_cast_fp16 = reshape(shape = var_2309, x = var_2308_cast_fp16)[name = tensor("input_641_cast_fp16")]; - tensor model_encoder_layers_12_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(157421952)))]; - tensor model_encoder_layers_12_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(157946304)))]; - tensor linear_114_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_out_weight_to_fp16, x = input_641_cast_fp16)[name = tensor("linear_114_cast_fp16")]; - tensor input_645_cast_fp16 = add(x = input_637_cast_fp16, y = linear_114_cast_fp16)[name = tensor("input_645_cast_fp16")]; + tensor var_2308_cast_fp16 = transpose(perm = var_2308_perm_0, x = x_275_cast_fp16)[name = tensor("transpose_223")]; + tensor input_641_cast_fp16 = reshape(shape = var_2309, x = var_2308_cast_fp16)[name = tensor("input_641_cast_fp16")]; + tensor model_encoder_layers_12_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(161362304)))]; + tensor model_encoder_layers_12_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(161886656)))]; + tensor linear_114_cast_fp16 = linear(bias = model_encoder_layers_12_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_12_self_attn_linear_out_weight_to_fp16, x = input_641_cast_fp16)[name = tensor("linear_114_cast_fp16")]; + tensor input_645_cast_fp16 = add(x = input_637_cast_fp16, y = linear_114_cast_fp16)[name = tensor("input_645_cast_fp16")]; tensor x_279_axes_0 = const()[name = tensor("x_279_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_12_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(157947392)))]; - tensor model_encoder_layers_12_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(157948480)))]; - tensor x_279_cast_fp16 = layer_norm(axes = x_279_axes_0, beta = model_encoder_layers_12_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_conv_weight_to_fp16, x = input_645_cast_fp16)[name = tensor("x_279_cast_fp16")]; + tensor model_encoder_layers_12_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(161887744)))]; + tensor model_encoder_layers_12_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(161888832)))]; + tensor x_279_cast_fp16 = layer_norm(axes = x_279_axes_0, beta = model_encoder_layers_12_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_conv_weight_to_fp16, x = input_645_cast_fp16)[name = tensor("x_279_cast_fp16")]; tensor input_647_perm_0 = const()[name = tensor("input_647_perm_0"), val = tensor([0, 2, 1])]; tensor input_649_pad_type_0 = const()[name = tensor("input_649_pad_type_0"), val = tensor("valid")]; tensor input_649_strides_0 = const()[name = tensor("input_649_strides_0"), val = tensor([1])]; tensor input_649_pad_0 = const()[name = tensor("input_649_pad_0"), val = tensor([0, 0])]; tensor input_649_dilations_0 = const()[name = tensor("input_649_dilations_0"), val = tensor([1])]; tensor input_649_groups_0 = const()[name = tensor("input_649_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_12_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(157949568)))]; - tensor model_encoder_layers_12_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(158998208)))]; - tensor input_647_cast_fp16 = transpose(perm = input_647_perm_0, x = x_279_cast_fp16)[name = tensor("transpose_222")]; - tensor input_649_cast_fp16 = conv(bias = model_encoder_layers_12_conv_pointwise_conv1_bias_to_fp16, dilations = input_649_dilations_0, groups = input_649_groups_0, pad = input_649_pad_0, pad_type = input_649_pad_type_0, strides = input_649_strides_0, weight = model_encoder_layers_12_conv_pointwise_conv1_weight_to_fp16, x = input_647_cast_fp16)[name = tensor("input_649_cast_fp16")]; + tensor model_encoder_layers_12_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(161889920)))]; + tensor model_encoder_layers_12_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(162938560)))]; + tensor input_647_cast_fp16 = transpose(perm = input_647_perm_0, x = x_279_cast_fp16)[name = tensor("transpose_222")]; + tensor input_649_cast_fp16 = conv(bias = model_encoder_layers_12_conv_pointwise_conv1_bias_to_fp16, dilations = input_649_dilations_0, groups = input_649_groups_0, pad = input_649_pad_0, pad_type = input_649_pad_type_0, strides = input_649_strides_0, weight = model_encoder_layers_12_conv_pointwise_conv1_weight_to_fp16, x = input_647_cast_fp16)[name = tensor("input_649_cast_fp16")]; tensor x_281_split_num_splits_0 = const()[name = tensor("x_281_split_num_splits_0"), val = tensor(2)]; tensor x_281_split_axis_0 = const()[name = tensor("x_281_split_axis_0"), val = tensor(1)]; - tensor x_281_split_cast_fp16_0, tensor x_281_split_cast_fp16_1 = split(axis = x_281_split_axis_0, num_splits = x_281_split_num_splits_0, x = input_649_cast_fp16)[name = tensor("x_281_split_cast_fp16")]; - tensor x_281_split_1_sigmoid_cast_fp16 = sigmoid(x = x_281_split_cast_fp16_1)[name = tensor("x_281_split_1_sigmoid_cast_fp16")]; - tensor x_281_cast_fp16 = mul(x = x_281_split_cast_fp16_0, y = x_281_split_1_sigmoid_cast_fp16)[name = tensor("x_281_cast_fp16")]; - tensor input_651_cast_fp16 = select(a = var_21_to_fp16, b = x_281_cast_fp16, cond = var_245)[name = tensor("input_651_cast_fp16")]; + tensor x_281_split_cast_fp16_0, tensor x_281_split_cast_fp16_1 = split(axis = x_281_split_axis_0, num_splits = x_281_split_num_splits_0, x = input_649_cast_fp16)[name = tensor("x_281_split_cast_fp16")]; + tensor x_281_split_1_sigmoid_cast_fp16 = sigmoid(x = x_281_split_cast_fp16_1)[name = tensor("x_281_split_1_sigmoid_cast_fp16")]; + tensor x_281_cast_fp16 = mul(x = x_281_split_cast_fp16_0, y = x_281_split_1_sigmoid_cast_fp16)[name = tensor("x_281_cast_fp16")]; + tensor input_651_cast_fp16 = select(a = var_21_to_fp16, b = x_281_cast_fp16, cond = var_245)[name = tensor("input_651_cast_fp16")]; tensor input_653_pad_0 = const()[name = tensor("input_653_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_653_mode_0 = const()[name = tensor("input_653_mode_0"), val = tensor("constant")]; tensor const_135_to_fp16 = const()[name = tensor("const_135_to_fp16"), val = tensor(0x0p+0)]; - tensor input_653_cast_fp16 = pad(constant_val = const_135_to_fp16, mode = input_653_mode_0, pad = input_653_pad_0, x = input_651_cast_fp16)[name = tensor("input_653_cast_fp16")]; + tensor input_653_cast_fp16 = pad(constant_val = const_135_to_fp16, mode = input_653_mode_0, pad = input_653_pad_0, x = input_651_cast_fp16)[name = tensor("input_653_cast_fp16")]; tensor input_655_pad_type_0 = const()[name = tensor("input_655_pad_type_0"), val = tensor("valid")]; tensor input_655_groups_0 = const()[name = tensor("input_655_groups_0"), val = tensor(512)]; tensor input_655_strides_0 = const()[name = tensor("input_655_strides_0"), val = tensor([1])]; tensor input_655_pad_0 = const()[name = tensor("input_655_pad_0"), val = tensor([0, 0])]; tensor input_655_dilations_0 = const()[name = tensor("input_655_dilations_0"), val = tensor([1])]; - tensor const_366_to_fp16 = const()[name = tensor("const_366_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159000320)))]; - tensor const_367_to_fp16 = const()[name = tensor("const_367_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159009600)))]; - tensor input_657_cast_fp16 = conv(bias = const_367_to_fp16, dilations = input_655_dilations_0, groups = input_655_groups_0, pad = input_655_pad_0, pad_type = input_655_pad_type_0, strides = input_655_strides_0, weight = const_366_to_fp16, x = input_653_cast_fp16)[name = tensor("input_657_cast_fp16")]; - tensor input_659_cast_fp16 = silu(x = input_657_cast_fp16)[name = tensor("input_659_cast_fp16")]; + tensor const_366_to_fp16 = const()[name = tensor("const_366_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(162940672)))]; + tensor const_367_to_fp16 = const()[name = tensor("const_367_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(162949952)))]; + tensor input_657_cast_fp16 = conv(bias = const_367_to_fp16, dilations = input_655_dilations_0, groups = input_655_groups_0, pad = input_655_pad_0, pad_type = input_655_pad_type_0, strides = input_655_strides_0, weight = const_366_to_fp16, x = input_653_cast_fp16)[name = tensor("input_657_cast_fp16")]; + tensor input_659_cast_fp16 = silu(x = input_657_cast_fp16)[name = tensor("input_659_cast_fp16")]; tensor x_283_pad_type_0 = const()[name = tensor("x_283_pad_type_0"), val = tensor("valid")]; tensor x_283_strides_0 = const()[name = tensor("x_283_strides_0"), val = tensor([1])]; tensor x_283_pad_0 = const()[name = tensor("x_283_pad_0"), val = tensor([0, 0])]; tensor x_283_dilations_0 = const()[name = tensor("x_283_dilations_0"), val = tensor([1])]; tensor x_283_groups_0 = const()[name = tensor("x_283_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_12_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159010688)))]; - tensor model_encoder_layers_12_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159535040)))]; - tensor x_283_cast_fp16 = conv(bias = model_encoder_layers_12_conv_pointwise_conv2_bias_to_fp16, dilations = x_283_dilations_0, groups = x_283_groups_0, pad = x_283_pad_0, pad_type = x_283_pad_type_0, strides = x_283_strides_0, weight = model_encoder_layers_12_conv_pointwise_conv2_weight_to_fp16, x = input_659_cast_fp16)[name = tensor("x_283_cast_fp16")]; + tensor model_encoder_layers_12_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(162951040)))]; + tensor model_encoder_layers_12_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163475392)))]; + tensor x_283_cast_fp16 = conv(bias = model_encoder_layers_12_conv_pointwise_conv2_bias_to_fp16, dilations = x_283_dilations_0, groups = x_283_groups_0, pad = x_283_pad_0, pad_type = x_283_pad_type_0, strides = x_283_strides_0, weight = model_encoder_layers_12_conv_pointwise_conv2_weight_to_fp16, x = input_659_cast_fp16)[name = tensor("x_283_cast_fp16")]; tensor input_661_perm_0 = const()[name = tensor("input_661_perm_0"), val = tensor([0, 2, 1])]; - tensor input_661_cast_fp16 = transpose(perm = input_661_perm_0, x = x_283_cast_fp16)[name = tensor("transpose_221")]; - tensor input_663_cast_fp16 = add(x = input_645_cast_fp16, y = input_661_cast_fp16)[name = tensor("input_663_cast_fp16")]; + tensor input_661_cast_fp16 = transpose(perm = input_661_perm_0, x = x_283_cast_fp16)[name = tensor("transpose_221")]; + tensor input_663_cast_fp16 = add(x = input_645_cast_fp16, y = input_661_cast_fp16)[name = tensor("input_663_cast_fp16")]; tensor input_665_axes_0 = const()[name = tensor("input_665_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_12_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159536128)))]; - tensor model_encoder_layers_12_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159537216)))]; - tensor input_665_cast_fp16 = layer_norm(axes = input_665_axes_0, beta = model_encoder_layers_12_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_feed_forward2_weight_to_fp16, x = input_663_cast_fp16)[name = tensor("input_665_cast_fp16")]; - tensor model_encoder_layers_12_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(159538304)))]; - tensor model_encoder_layers_12_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(161635520)))]; - tensor linear_115_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_12_feed_forward2_linear1_weight_to_fp16, x = input_665_cast_fp16)[name = tensor("linear_115_cast_fp16")]; - tensor input_669_cast_fp16 = silu(x = linear_115_cast_fp16)[name = tensor("input_669_cast_fp16")]; - tensor model_encoder_layers_12_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(161639680)))]; - tensor model_encoder_layers_12_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163736896)))]; - tensor linear_116_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_12_feed_forward2_linear2_weight_to_fp16, x = input_669_cast_fp16)[name = tensor("linear_116_cast_fp16")]; + tensor model_encoder_layers_12_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163476480)))]; + tensor model_encoder_layers_12_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163477568)))]; + tensor input_665_cast_fp16 = layer_norm(axes = input_665_axes_0, beta = model_encoder_layers_12_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_feed_forward2_weight_to_fp16, x = input_663_cast_fp16)[name = tensor("input_665_cast_fp16")]; + tensor model_encoder_layers_12_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163478656)))]; + tensor model_encoder_layers_12_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(165575872)))]; + tensor linear_115_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_12_feed_forward2_linear1_weight_to_fp16, x = input_665_cast_fp16)[name = tensor("linear_115_cast_fp16")]; + tensor input_669_cast_fp16 = silu(x = linear_115_cast_fp16)[name = tensor("input_669_cast_fp16")]; + tensor model_encoder_layers_12_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(165580032)))]; + tensor model_encoder_layers_12_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167677248)))]; + tensor linear_116_cast_fp16 = linear(bias = model_encoder_layers_12_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_12_feed_forward2_linear2_weight_to_fp16, x = input_669_cast_fp16)[name = tensor("linear_116_cast_fp16")]; tensor var_2375_to_fp16 = const()[name = tensor("op_2375_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2376_cast_fp16 = mul(x = linear_116_cast_fp16, y = var_2375_to_fp16)[name = tensor("op_2376_cast_fp16")]; - tensor input_675_cast_fp16 = add(x = input_663_cast_fp16, y = var_2376_cast_fp16)[name = tensor("input_675_cast_fp16")]; + tensor var_2376_cast_fp16 = mul(x = linear_116_cast_fp16, y = var_2375_to_fp16)[name = tensor("op_2376_cast_fp16")]; + tensor input_675_cast_fp16 = add(x = input_663_cast_fp16, y = var_2376_cast_fp16)[name = tensor("input_675_cast_fp16")]; tensor input_677_axes_0 = const()[name = tensor("input_677_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_12_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163737984)))]; - tensor model_encoder_layers_12_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163739072)))]; - tensor input_677_cast_fp16 = layer_norm(axes = input_677_axes_0, beta = model_encoder_layers_12_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_out_weight_to_fp16, x = input_675_cast_fp16)[name = tensor("input_677_cast_fp16")]; + tensor model_encoder_layers_12_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167678336)))]; + tensor model_encoder_layers_12_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_12_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167679424)))]; + tensor input_677_cast_fp16 = layer_norm(axes = input_677_axes_0, beta = model_encoder_layers_12_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_12_norm_out_weight_to_fp16, x = input_675_cast_fp16)[name = tensor("input_677_cast_fp16")]; tensor input_679_axes_0 = const()[name = tensor("input_679_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_13_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163740160)))]; - tensor model_encoder_layers_13_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163741248)))]; - tensor input_679_cast_fp16 = layer_norm(axes = input_679_axes_0, beta = model_encoder_layers_13_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_feed_forward1_weight_to_fp16, x = input_677_cast_fp16)[name = tensor("input_679_cast_fp16")]; - tensor model_encoder_layers_13_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(163742336)))]; - tensor model_encoder_layers_13_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(165839552)))]; - tensor linear_117_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_13_feed_forward1_linear1_weight_to_fp16, x = input_679_cast_fp16)[name = tensor("linear_117_cast_fp16")]; - tensor input_683_cast_fp16 = silu(x = linear_117_cast_fp16)[name = tensor("input_683_cast_fp16")]; - tensor model_encoder_layers_13_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(165843712)))]; - tensor model_encoder_layers_13_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167940928)))]; - tensor linear_118_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_13_feed_forward1_linear2_weight_to_fp16, x = input_683_cast_fp16)[name = tensor("linear_118_cast_fp16")]; + tensor model_encoder_layers_13_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167680512)))]; + tensor model_encoder_layers_13_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167681600)))]; + tensor input_679_cast_fp16 = layer_norm(axes = input_679_axes_0, beta = model_encoder_layers_13_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_feed_forward1_weight_to_fp16, x = input_677_cast_fp16)[name = tensor("input_679_cast_fp16")]; + tensor model_encoder_layers_13_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167682688)))]; + tensor model_encoder_layers_13_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(169779904)))]; + tensor linear_117_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_13_feed_forward1_linear1_weight_to_fp16, x = input_679_cast_fp16)[name = tensor("linear_117_cast_fp16")]; + tensor input_683_cast_fp16 = silu(x = linear_117_cast_fp16)[name = tensor("input_683_cast_fp16")]; + tensor model_encoder_layers_13_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(169784064)))]; + tensor model_encoder_layers_13_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171881280)))]; + tensor linear_118_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_13_feed_forward1_linear2_weight_to_fp16, x = input_683_cast_fp16)[name = tensor("linear_118_cast_fp16")]; tensor var_2406_to_fp16 = const()[name = tensor("op_2406_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2407_cast_fp16 = mul(x = linear_118_cast_fp16, y = var_2406_to_fp16)[name = tensor("op_2407_cast_fp16")]; - tensor input_689_cast_fp16 = add(x = input_677_cast_fp16, y = var_2407_cast_fp16)[name = tensor("input_689_cast_fp16")]; + tensor var_2407_cast_fp16 = mul(x = linear_118_cast_fp16, y = var_2406_to_fp16)[name = tensor("op_2407_cast_fp16")]; + tensor input_689_cast_fp16 = add(x = input_677_cast_fp16, y = var_2407_cast_fp16)[name = tensor("input_689_cast_fp16")]; tensor query_27_axes_0 = const()[name = tensor("query_27_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_13_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167942016)))]; - tensor model_encoder_layers_13_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167943104)))]; - tensor query_27_cast_fp16 = layer_norm(axes = query_27_axes_0, beta = model_encoder_layers_13_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_self_att_weight_to_fp16, x = input_689_cast_fp16)[name = tensor("query_27_cast_fp16")]; - tensor model_encoder_layers_13_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(167944192)))]; - tensor model_encoder_layers_13_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(168468544)))]; - tensor linear_119_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_q_weight_to_fp16, x = query_27_cast_fp16)[name = tensor("linear_119_cast_fp16")]; + tensor model_encoder_layers_13_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171882368)))]; + tensor model_encoder_layers_13_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171883456)))]; + tensor query_27_cast_fp16 = layer_norm(axes = query_27_axes_0, beta = model_encoder_layers_13_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_self_att_weight_to_fp16, x = input_689_cast_fp16)[name = tensor("query_27_cast_fp16")]; + tensor model_encoder_layers_13_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171884544)))]; + tensor model_encoder_layers_13_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172408896)))]; + tensor linear_119_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_q_weight_to_fp16, x = query_27_cast_fp16)[name = tensor("linear_119_cast_fp16")]; tensor var_2424 = const()[name = tensor("op_2424"), val = tensor([1, -1, 8, 64])]; - tensor q_79_cast_fp16 = reshape(shape = var_2424, x = linear_119_cast_fp16)[name = tensor("q_79_cast_fp16")]; - tensor model_encoder_layers_13_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(168469632)))]; - tensor model_encoder_layers_13_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(168993984)))]; - tensor linear_120_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_k_weight_to_fp16, x = query_27_cast_fp16)[name = tensor("linear_120_cast_fp16")]; + tensor q_79_cast_fp16 = reshape(shape = var_2424, x = linear_119_cast_fp16)[name = tensor("q_79_cast_fp16")]; + tensor model_encoder_layers_13_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172409984)))]; + tensor model_encoder_layers_13_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172934336)))]; + tensor linear_120_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_k_weight_to_fp16, x = query_27_cast_fp16)[name = tensor("linear_120_cast_fp16")]; tensor var_2429 = const()[name = tensor("op_2429"), val = tensor([1, -1, 8, 64])]; - tensor k_53_cast_fp16 = reshape(shape = var_2429, x = linear_120_cast_fp16)[name = tensor("k_53_cast_fp16")]; - tensor model_encoder_layers_13_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(168995072)))]; - tensor model_encoder_layers_13_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(169519424)))]; - tensor linear_121_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_v_weight_to_fp16, x = query_27_cast_fp16)[name = tensor("linear_121_cast_fp16")]; + tensor k_53_cast_fp16 = reshape(shape = var_2429, x = linear_120_cast_fp16)[name = tensor("k_53_cast_fp16")]; + tensor model_encoder_layers_13_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172935424)))]; + tensor model_encoder_layers_13_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(173459776)))]; + tensor linear_121_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_v_weight_to_fp16, x = query_27_cast_fp16)[name = tensor("linear_121_cast_fp16")]; tensor var_2434 = const()[name = tensor("op_2434"), val = tensor([1, -1, 8, 64])]; - tensor v_27_cast_fp16 = reshape(shape = var_2434, x = linear_121_cast_fp16)[name = tensor("v_27_cast_fp16")]; + tensor v_27_cast_fp16 = reshape(shape = var_2434, x = linear_121_cast_fp16)[name = tensor("v_27_cast_fp16")]; tensor value_27_perm_0 = const()[name = tensor("value_27_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_13_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(169520512)))]; - tensor var_2446_cast_fp16 = add(x = q_79_cast_fp16, y = model_encoder_layers_13_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2446_cast_fp16")]; - tensor model_encoder_layers_13_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(169521600)))]; - tensor var_2448_cast_fp16 = add(x = q_79_cast_fp16, y = model_encoder_layers_13_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2448_cast_fp16")]; + tensor model_encoder_layers_13_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(173460864)))]; + tensor var_2446_cast_fp16 = add(x = q_79_cast_fp16, y = model_encoder_layers_13_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2446_cast_fp16")]; + tensor model_encoder_layers_13_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(173461952)))]; + tensor var_2448_cast_fp16 = add(x = q_79_cast_fp16, y = model_encoder_layers_13_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2448_cast_fp16")]; tensor q_with_bias_v_27_perm_0 = const()[name = tensor("q_with_bias_v_27_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_291_transpose_x_0 = const()[name = tensor("x_291_transpose_x_0"), val = tensor(false)]; tensor x_291_transpose_y_0 = const()[name = tensor("x_291_transpose_y_0"), val = tensor(false)]; - tensor var_2450_to_fp16 = const()[name = tensor("op_2450_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(169522688)))]; - tensor q_with_bias_v_27_cast_fp16 = transpose(perm = q_with_bias_v_27_perm_0, x = var_2448_cast_fp16)[name = tensor("transpose_219")]; - tensor x_291_cast_fp16 = matmul(transpose_x = x_291_transpose_x_0, transpose_y = x_291_transpose_y_0, x = q_with_bias_v_27_cast_fp16, y = var_2450_to_fp16)[name = tensor("x_291_cast_fp16")]; + tensor var_2450_to_fp16 = const()[name = tensor("op_2450_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(173463040)))]; + tensor q_with_bias_v_27_cast_fp16 = transpose(perm = q_with_bias_v_27_perm_0, x = var_2448_cast_fp16)[name = tensor("transpose_219")]; + tensor x_291_cast_fp16 = matmul(transpose_x = x_291_transpose_x_0, transpose_y = x_291_transpose_y_0, x = q_with_bias_v_27_cast_fp16, y = var_2450_to_fp16)[name = tensor("x_291_cast_fp16")]; tensor x_293_pad_0 = const()[name = tensor("x_293_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_293_mode_0 = const()[name = tensor("x_293_mode_0"), val = tensor("constant")]; tensor const_142_to_fp16 = const()[name = tensor("const_142_to_fp16"), val = tensor(0x0p+0)]; - tensor x_293_cast_fp16 = pad(constant_val = const_142_to_fp16, mode = x_293_mode_0, pad = x_293_pad_0, x = x_291_cast_fp16)[name = tensor("x_293_cast_fp16")]; - tensor var_2458 = const()[name = tensor("op_2458"), val = tensor([1, 8, -1, 242])]; - tensor x_295_cast_fp16 = reshape(shape = var_2458, x = x_293_cast_fp16)[name = tensor("x_295_cast_fp16")]; + tensor x_293_cast_fp16 = pad(constant_val = const_142_to_fp16, mode = x_293_mode_0, pad = x_293_pad_0, x = x_291_cast_fp16)[name = tensor("x_293_cast_fp16")]; + tensor var_2458 = const()[name = tensor("op_2458"), val = tensor([1, 8, -1, 390])]; + tensor x_295_cast_fp16 = reshape(shape = var_2458, x = x_293_cast_fp16)[name = tensor("x_295_cast_fp16")]; tensor var_2462_begin_0 = const()[name = tensor("op_2462_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_2462_end_0 = const()[name = tensor("op_2462_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_2462_end_0 = const()[name = tensor("op_2462_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_2462_end_mask_0 = const()[name = tensor("op_2462_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_2462_cast_fp16 = slice_by_index(begin = var_2462_begin_0, end = var_2462_end_0, end_mask = var_2462_end_mask_0, x = x_295_cast_fp16)[name = tensor("op_2462_cast_fp16")]; - tensor var_2463 = const()[name = tensor("op_2463"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_53_cast_fp16 = reshape(shape = var_2463, x = var_2462_cast_fp16)[name = tensor("matrix_bd_53_cast_fp16")]; + tensor var_2462_cast_fp16 = slice_by_index(begin = var_2462_begin_0, end = var_2462_end_0, end_mask = var_2462_end_mask_0, x = x_295_cast_fp16)[name = tensor("op_2462_cast_fp16")]; + tensor var_2463 = const()[name = tensor("op_2463"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_53_cast_fp16 = reshape(shape = var_2463, x = var_2462_cast_fp16)[name = tensor("matrix_bd_53_cast_fp16")]; tensor matrix_ac_27_transpose_x_0 = const()[name = tensor("matrix_ac_27_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_27_transpose_y_0 = const()[name = tensor("matrix_ac_27_transpose_y_0"), val = tensor(false)]; tensor transpose_77_perm_0 = const()[name = tensor("transpose_77_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_78_perm_0 = const()[name = tensor("transpose_78_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_78 = transpose(perm = transpose_78_perm_0, x = k_53_cast_fp16)[name = tensor("transpose_217")]; - tensor transpose_77 = transpose(perm = transpose_77_perm_0, x = var_2446_cast_fp16)[name = tensor("transpose_218")]; - tensor matrix_ac_27_cast_fp16 = matmul(transpose_x = matrix_ac_27_transpose_x_0, transpose_y = matrix_ac_27_transpose_y_0, x = transpose_77, y = transpose_78)[name = tensor("matrix_ac_27_cast_fp16")]; + tensor transpose_78 = transpose(perm = transpose_78_perm_0, x = k_53_cast_fp16)[name = tensor("transpose_217")]; + tensor transpose_77 = transpose(perm = transpose_77_perm_0, x = var_2446_cast_fp16)[name = tensor("transpose_218")]; + tensor matrix_ac_27_cast_fp16 = matmul(transpose_x = matrix_ac_27_transpose_x_0, transpose_y = matrix_ac_27_transpose_y_0, x = transpose_77, y = transpose_78)[name = tensor("matrix_ac_27_cast_fp16")]; tensor matrix_bd_55_begin_0 = const()[name = tensor("matrix_bd_55_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_55_end_0 = const()[name = tensor("matrix_bd_55_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_55_end_0 = const()[name = tensor("matrix_bd_55_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_55_end_mask_0 = const()[name = tensor("matrix_bd_55_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_55_cast_fp16 = slice_by_index(begin = matrix_bd_55_begin_0, end = matrix_bd_55_end_0, end_mask = matrix_bd_55_end_mask_0, x = matrix_bd_53_cast_fp16)[name = tensor("matrix_bd_55_cast_fp16")]; - tensor var_2472_cast_fp16 = add(x = matrix_ac_27_cast_fp16, y = matrix_bd_55_cast_fp16)[name = tensor("op_2472_cast_fp16")]; + tensor matrix_bd_55_cast_fp16 = slice_by_index(begin = matrix_bd_55_begin_0, end = matrix_bd_55_end_0, end_mask = matrix_bd_55_end_mask_0, x = matrix_bd_53_cast_fp16)[name = tensor("matrix_bd_55_cast_fp16")]; + tensor var_2472_cast_fp16 = add(x = matrix_ac_27_cast_fp16, y = matrix_bd_55_cast_fp16)[name = tensor("op_2472_cast_fp16")]; tensor _inversed_scores_53_y_0_to_fp16 = const()[name = tensor("_inversed_scores_53_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_53_cast_fp16 = mul(x = var_2472_cast_fp16, y = _inversed_scores_53_y_0_to_fp16)[name = tensor("_inversed_scores_53_cast_fp16")]; - tensor scores_55_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_53_cast_fp16, cond = mask_3)[name = tensor("scores_55_cast_fp16")]; - tensor var_2478_cast_fp16 = softmax(axis = var_30, x = scores_55_cast_fp16)[name = tensor("op_2478_cast_fp16")]; - tensor input_691_cast_fp16 = select(a = var_21_to_fp16, b = var_2478_cast_fp16, cond = mask_3)[name = tensor("input_691_cast_fp16")]; + tensor _inversed_scores_53_cast_fp16 = mul(x = var_2472_cast_fp16, y = _inversed_scores_53_y_0_to_fp16)[name = tensor("_inversed_scores_53_cast_fp16")]; + tensor scores_55_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_53_cast_fp16, cond = mask_3)[name = tensor("scores_55_cast_fp16")]; + tensor var_2478_cast_fp16 = softmax(axis = var_30, x = scores_55_cast_fp16)[name = tensor("op_2478_cast_fp16")]; + tensor input_691_cast_fp16 = select(a = var_21_to_fp16, b = var_2478_cast_fp16, cond = mask_3)[name = tensor("input_691_cast_fp16")]; tensor x_297_transpose_x_0 = const()[name = tensor("x_297_transpose_x_0"), val = tensor(false)]; tensor x_297_transpose_y_0 = const()[name = tensor("x_297_transpose_y_0"), val = tensor(false)]; - tensor value_27_cast_fp16 = transpose(perm = value_27_perm_0, x = v_27_cast_fp16)[name = tensor("transpose_220")]; - tensor x_297_cast_fp16 = matmul(transpose_x = x_297_transpose_x_0, transpose_y = x_297_transpose_y_0, x = input_691_cast_fp16, y = value_27_cast_fp16)[name = tensor("x_297_cast_fp16")]; + tensor value_27_cast_fp16 = transpose(perm = value_27_perm_0, x = v_27_cast_fp16)[name = tensor("transpose_220")]; + tensor x_297_cast_fp16 = matmul(transpose_x = x_297_transpose_x_0, transpose_y = x_297_transpose_y_0, x = input_691_cast_fp16, y = value_27_cast_fp16)[name = tensor("x_297_cast_fp16")]; tensor var_2482_perm_0 = const()[name = tensor("op_2482_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_2483 = const()[name = tensor("op_2483"), val = tensor([1, -1, 512])]; - tensor var_2482_cast_fp16 = transpose(perm = var_2482_perm_0, x = x_297_cast_fp16)[name = tensor("transpose_216")]; - tensor input_693_cast_fp16 = reshape(shape = var_2483, x = var_2482_cast_fp16)[name = tensor("input_693_cast_fp16")]; - tensor model_encoder_layers_13_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(170017344)))]; - tensor model_encoder_layers_13_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(170541696)))]; - tensor linear_123_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_out_weight_to_fp16, x = input_693_cast_fp16)[name = tensor("linear_123_cast_fp16")]; - tensor input_697_cast_fp16 = add(x = input_689_cast_fp16, y = linear_123_cast_fp16)[name = tensor("input_697_cast_fp16")]; + tensor var_2482_cast_fp16 = transpose(perm = var_2482_perm_0, x = x_297_cast_fp16)[name = tensor("transpose_216")]; + tensor input_693_cast_fp16 = reshape(shape = var_2483, x = var_2482_cast_fp16)[name = tensor("input_693_cast_fp16")]; + tensor model_encoder_layers_13_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(174260800)))]; + tensor model_encoder_layers_13_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(174785152)))]; + tensor linear_123_cast_fp16 = linear(bias = model_encoder_layers_13_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_13_self_attn_linear_out_weight_to_fp16, x = input_693_cast_fp16)[name = tensor("linear_123_cast_fp16")]; + tensor input_697_cast_fp16 = add(x = input_689_cast_fp16, y = linear_123_cast_fp16)[name = tensor("input_697_cast_fp16")]; tensor x_301_axes_0 = const()[name = tensor("x_301_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_13_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(170542784)))]; - tensor model_encoder_layers_13_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(170543872)))]; - tensor x_301_cast_fp16 = layer_norm(axes = x_301_axes_0, beta = model_encoder_layers_13_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_conv_weight_to_fp16, x = input_697_cast_fp16)[name = tensor("x_301_cast_fp16")]; + tensor model_encoder_layers_13_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(174786240)))]; + tensor model_encoder_layers_13_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(174787328)))]; + tensor x_301_cast_fp16 = layer_norm(axes = x_301_axes_0, beta = model_encoder_layers_13_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_conv_weight_to_fp16, x = input_697_cast_fp16)[name = tensor("x_301_cast_fp16")]; tensor input_699_perm_0 = const()[name = tensor("input_699_perm_0"), val = tensor([0, 2, 1])]; tensor input_701_pad_type_0 = const()[name = tensor("input_701_pad_type_0"), val = tensor("valid")]; tensor input_701_strides_0 = const()[name = tensor("input_701_strides_0"), val = tensor([1])]; tensor input_701_pad_0 = const()[name = tensor("input_701_pad_0"), val = tensor([0, 0])]; tensor input_701_dilations_0 = const()[name = tensor("input_701_dilations_0"), val = tensor([1])]; tensor input_701_groups_0 = const()[name = tensor("input_701_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_13_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(170544960)))]; - tensor model_encoder_layers_13_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171593600)))]; - tensor input_699_cast_fp16 = transpose(perm = input_699_perm_0, x = x_301_cast_fp16)[name = tensor("transpose_215")]; - tensor input_701_cast_fp16 = conv(bias = model_encoder_layers_13_conv_pointwise_conv1_bias_to_fp16, dilations = input_701_dilations_0, groups = input_701_groups_0, pad = input_701_pad_0, pad_type = input_701_pad_type_0, strides = input_701_strides_0, weight = model_encoder_layers_13_conv_pointwise_conv1_weight_to_fp16, x = input_699_cast_fp16)[name = tensor("input_701_cast_fp16")]; + tensor model_encoder_layers_13_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(174788416)))]; + tensor model_encoder_layers_13_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(175837056)))]; + tensor input_699_cast_fp16 = transpose(perm = input_699_perm_0, x = x_301_cast_fp16)[name = tensor("transpose_215")]; + tensor input_701_cast_fp16 = conv(bias = model_encoder_layers_13_conv_pointwise_conv1_bias_to_fp16, dilations = input_701_dilations_0, groups = input_701_groups_0, pad = input_701_pad_0, pad_type = input_701_pad_type_0, strides = input_701_strides_0, weight = model_encoder_layers_13_conv_pointwise_conv1_weight_to_fp16, x = input_699_cast_fp16)[name = tensor("input_701_cast_fp16")]; tensor x_303_split_num_splits_0 = const()[name = tensor("x_303_split_num_splits_0"), val = tensor(2)]; tensor x_303_split_axis_0 = const()[name = tensor("x_303_split_axis_0"), val = tensor(1)]; - tensor x_303_split_cast_fp16_0, tensor x_303_split_cast_fp16_1 = split(axis = x_303_split_axis_0, num_splits = x_303_split_num_splits_0, x = input_701_cast_fp16)[name = tensor("x_303_split_cast_fp16")]; - tensor x_303_split_1_sigmoid_cast_fp16 = sigmoid(x = x_303_split_cast_fp16_1)[name = tensor("x_303_split_1_sigmoid_cast_fp16")]; - tensor x_303_cast_fp16 = mul(x = x_303_split_cast_fp16_0, y = x_303_split_1_sigmoid_cast_fp16)[name = tensor("x_303_cast_fp16")]; - tensor input_703_cast_fp16 = select(a = var_21_to_fp16, b = x_303_cast_fp16, cond = var_245)[name = tensor("input_703_cast_fp16")]; + tensor x_303_split_cast_fp16_0, tensor x_303_split_cast_fp16_1 = split(axis = x_303_split_axis_0, num_splits = x_303_split_num_splits_0, x = input_701_cast_fp16)[name = tensor("x_303_split_cast_fp16")]; + tensor x_303_split_1_sigmoid_cast_fp16 = sigmoid(x = x_303_split_cast_fp16_1)[name = tensor("x_303_split_1_sigmoid_cast_fp16")]; + tensor x_303_cast_fp16 = mul(x = x_303_split_cast_fp16_0, y = x_303_split_1_sigmoid_cast_fp16)[name = tensor("x_303_cast_fp16")]; + tensor input_703_cast_fp16 = select(a = var_21_to_fp16, b = x_303_cast_fp16, cond = var_245)[name = tensor("input_703_cast_fp16")]; tensor input_705_pad_0 = const()[name = tensor("input_705_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_705_mode_0 = const()[name = tensor("input_705_mode_0"), val = tensor("constant")]; tensor const_145_to_fp16 = const()[name = tensor("const_145_to_fp16"), val = tensor(0x0p+0)]; - tensor input_705_cast_fp16 = pad(constant_val = const_145_to_fp16, mode = input_705_mode_0, pad = input_705_pad_0, x = input_703_cast_fp16)[name = tensor("input_705_cast_fp16")]; + tensor input_705_cast_fp16 = pad(constant_val = const_145_to_fp16, mode = input_705_mode_0, pad = input_705_pad_0, x = input_703_cast_fp16)[name = tensor("input_705_cast_fp16")]; tensor input_707_pad_type_0 = const()[name = tensor("input_707_pad_type_0"), val = tensor("valid")]; tensor input_707_groups_0 = const()[name = tensor("input_707_groups_0"), val = tensor(512)]; tensor input_707_strides_0 = const()[name = tensor("input_707_strides_0"), val = tensor([1])]; tensor input_707_pad_0 = const()[name = tensor("input_707_pad_0"), val = tensor([0, 0])]; tensor input_707_dilations_0 = const()[name = tensor("input_707_dilations_0"), val = tensor([1])]; - tensor const_368_to_fp16 = const()[name = tensor("const_368_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171595712)))]; - tensor const_369_to_fp16 = const()[name = tensor("const_369_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171604992)))]; - tensor input_709_cast_fp16 = conv(bias = const_369_to_fp16, dilations = input_707_dilations_0, groups = input_707_groups_0, pad = input_707_pad_0, pad_type = input_707_pad_type_0, strides = input_707_strides_0, weight = const_368_to_fp16, x = input_705_cast_fp16)[name = tensor("input_709_cast_fp16")]; - tensor input_711_cast_fp16 = silu(x = input_709_cast_fp16)[name = tensor("input_711_cast_fp16")]; + tensor const_368_to_fp16 = const()[name = tensor("const_368_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(175839168)))]; + tensor const_369_to_fp16 = const()[name = tensor("const_369_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(175848448)))]; + tensor input_709_cast_fp16 = conv(bias = const_369_to_fp16, dilations = input_707_dilations_0, groups = input_707_groups_0, pad = input_707_pad_0, pad_type = input_707_pad_type_0, strides = input_707_strides_0, weight = const_368_to_fp16, x = input_705_cast_fp16)[name = tensor("input_709_cast_fp16")]; + tensor input_711_cast_fp16 = silu(x = input_709_cast_fp16)[name = tensor("input_711_cast_fp16")]; tensor x_305_pad_type_0 = const()[name = tensor("x_305_pad_type_0"), val = tensor("valid")]; tensor x_305_strides_0 = const()[name = tensor("x_305_strides_0"), val = tensor([1])]; tensor x_305_pad_0 = const()[name = tensor("x_305_pad_0"), val = tensor([0, 0])]; tensor x_305_dilations_0 = const()[name = tensor("x_305_dilations_0"), val = tensor([1])]; tensor x_305_groups_0 = const()[name = tensor("x_305_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_13_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(171606080)))]; - tensor model_encoder_layers_13_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172130432)))]; - tensor x_305_cast_fp16 = conv(bias = model_encoder_layers_13_conv_pointwise_conv2_bias_to_fp16, dilations = x_305_dilations_0, groups = x_305_groups_0, pad = x_305_pad_0, pad_type = x_305_pad_type_0, strides = x_305_strides_0, weight = model_encoder_layers_13_conv_pointwise_conv2_weight_to_fp16, x = input_711_cast_fp16)[name = tensor("x_305_cast_fp16")]; + tensor model_encoder_layers_13_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(175849536)))]; + tensor model_encoder_layers_13_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176373888)))]; + tensor x_305_cast_fp16 = conv(bias = model_encoder_layers_13_conv_pointwise_conv2_bias_to_fp16, dilations = x_305_dilations_0, groups = x_305_groups_0, pad = x_305_pad_0, pad_type = x_305_pad_type_0, strides = x_305_strides_0, weight = model_encoder_layers_13_conv_pointwise_conv2_weight_to_fp16, x = input_711_cast_fp16)[name = tensor("x_305_cast_fp16")]; tensor input_713_perm_0 = const()[name = tensor("input_713_perm_0"), val = tensor([0, 2, 1])]; - tensor input_713_cast_fp16 = transpose(perm = input_713_perm_0, x = x_305_cast_fp16)[name = tensor("transpose_214")]; - tensor input_715_cast_fp16 = add(x = input_697_cast_fp16, y = input_713_cast_fp16)[name = tensor("input_715_cast_fp16")]; + tensor input_713_cast_fp16 = transpose(perm = input_713_perm_0, x = x_305_cast_fp16)[name = tensor("transpose_214")]; + tensor input_715_cast_fp16 = add(x = input_697_cast_fp16, y = input_713_cast_fp16)[name = tensor("input_715_cast_fp16")]; tensor input_717_axes_0 = const()[name = tensor("input_717_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_13_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172131520)))]; - tensor model_encoder_layers_13_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172132608)))]; - tensor input_717_cast_fp16 = layer_norm(axes = input_717_axes_0, beta = model_encoder_layers_13_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_feed_forward2_weight_to_fp16, x = input_715_cast_fp16)[name = tensor("input_717_cast_fp16")]; - tensor model_encoder_layers_13_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(172133696)))]; - tensor model_encoder_layers_13_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(174230912)))]; - tensor linear_124_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_13_feed_forward2_linear1_weight_to_fp16, x = input_717_cast_fp16)[name = tensor("linear_124_cast_fp16")]; - tensor input_721_cast_fp16 = silu(x = linear_124_cast_fp16)[name = tensor("input_721_cast_fp16")]; - tensor model_encoder_layers_13_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(174235072)))]; - tensor model_encoder_layers_13_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176332288)))]; - tensor linear_125_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_13_feed_forward2_linear2_weight_to_fp16, x = input_721_cast_fp16)[name = tensor("linear_125_cast_fp16")]; + tensor model_encoder_layers_13_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176374976)))]; + tensor model_encoder_layers_13_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176376064)))]; + tensor input_717_cast_fp16 = layer_norm(axes = input_717_axes_0, beta = model_encoder_layers_13_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_feed_forward2_weight_to_fp16, x = input_715_cast_fp16)[name = tensor("input_717_cast_fp16")]; + tensor model_encoder_layers_13_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176377152)))]; + tensor model_encoder_layers_13_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(178474368)))]; + tensor linear_124_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_13_feed_forward2_linear1_weight_to_fp16, x = input_717_cast_fp16)[name = tensor("linear_124_cast_fp16")]; + tensor input_721_cast_fp16 = silu(x = linear_124_cast_fp16)[name = tensor("input_721_cast_fp16")]; + tensor model_encoder_layers_13_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(178478528)))]; + tensor model_encoder_layers_13_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180575744)))]; + tensor linear_125_cast_fp16 = linear(bias = model_encoder_layers_13_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_13_feed_forward2_linear2_weight_to_fp16, x = input_721_cast_fp16)[name = tensor("linear_125_cast_fp16")]; tensor var_2549_to_fp16 = const()[name = tensor("op_2549_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2550_cast_fp16 = mul(x = linear_125_cast_fp16, y = var_2549_to_fp16)[name = tensor("op_2550_cast_fp16")]; - tensor input_727_cast_fp16 = add(x = input_715_cast_fp16, y = var_2550_cast_fp16)[name = tensor("input_727_cast_fp16")]; + tensor var_2550_cast_fp16 = mul(x = linear_125_cast_fp16, y = var_2549_to_fp16)[name = tensor("op_2550_cast_fp16")]; + tensor input_727_cast_fp16 = add(x = input_715_cast_fp16, y = var_2550_cast_fp16)[name = tensor("input_727_cast_fp16")]; tensor input_729_axes_0 = const()[name = tensor("input_729_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_13_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176333376)))]; - tensor model_encoder_layers_13_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176334464)))]; - tensor input_729_cast_fp16 = layer_norm(axes = input_729_axes_0, beta = model_encoder_layers_13_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_out_weight_to_fp16, x = input_727_cast_fp16)[name = tensor("input_729_cast_fp16")]; + tensor model_encoder_layers_13_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180576832)))]; + tensor model_encoder_layers_13_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_13_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180577920)))]; + tensor input_729_cast_fp16 = layer_norm(axes = input_729_axes_0, beta = model_encoder_layers_13_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_13_norm_out_weight_to_fp16, x = input_727_cast_fp16)[name = tensor("input_729_cast_fp16")]; tensor input_731_axes_0 = const()[name = tensor("input_731_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_14_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176335552)))]; - tensor model_encoder_layers_14_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176336640)))]; - tensor input_731_cast_fp16 = layer_norm(axes = input_731_axes_0, beta = model_encoder_layers_14_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_feed_forward1_weight_to_fp16, x = input_729_cast_fp16)[name = tensor("input_731_cast_fp16")]; - tensor model_encoder_layers_14_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(176337728)))]; - tensor model_encoder_layers_14_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(178434944)))]; - tensor linear_126_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_14_feed_forward1_linear1_weight_to_fp16, x = input_731_cast_fp16)[name = tensor("linear_126_cast_fp16")]; - tensor input_735_cast_fp16 = silu(x = linear_126_cast_fp16)[name = tensor("input_735_cast_fp16")]; - tensor model_encoder_layers_14_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(178439104)))]; - tensor model_encoder_layers_14_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180536320)))]; - tensor linear_127_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_14_feed_forward1_linear2_weight_to_fp16, x = input_735_cast_fp16)[name = tensor("linear_127_cast_fp16")]; + tensor model_encoder_layers_14_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180579008)))]; + tensor model_encoder_layers_14_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180580096)))]; + tensor input_731_cast_fp16 = layer_norm(axes = input_731_axes_0, beta = model_encoder_layers_14_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_feed_forward1_weight_to_fp16, x = input_729_cast_fp16)[name = tensor("input_731_cast_fp16")]; + tensor model_encoder_layers_14_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180581184)))]; + tensor model_encoder_layers_14_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(182678400)))]; + tensor linear_126_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_14_feed_forward1_linear1_weight_to_fp16, x = input_731_cast_fp16)[name = tensor("linear_126_cast_fp16")]; + tensor input_735_cast_fp16 = silu(x = linear_126_cast_fp16)[name = tensor("input_735_cast_fp16")]; + tensor model_encoder_layers_14_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(182682560)))]; + tensor model_encoder_layers_14_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184779776)))]; + tensor linear_127_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_14_feed_forward1_linear2_weight_to_fp16, x = input_735_cast_fp16)[name = tensor("linear_127_cast_fp16")]; tensor var_2580_to_fp16 = const()[name = tensor("op_2580_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2581_cast_fp16 = mul(x = linear_127_cast_fp16, y = var_2580_to_fp16)[name = tensor("op_2581_cast_fp16")]; - tensor input_741_cast_fp16 = add(x = input_729_cast_fp16, y = var_2581_cast_fp16)[name = tensor("input_741_cast_fp16")]; + tensor var_2581_cast_fp16 = mul(x = linear_127_cast_fp16, y = var_2580_to_fp16)[name = tensor("op_2581_cast_fp16")]; + tensor input_741_cast_fp16 = add(x = input_729_cast_fp16, y = var_2581_cast_fp16)[name = tensor("input_741_cast_fp16")]; tensor query_29_axes_0 = const()[name = tensor("query_29_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_14_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180537408)))]; - tensor model_encoder_layers_14_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180538496)))]; - tensor query_29_cast_fp16 = layer_norm(axes = query_29_axes_0, beta = model_encoder_layers_14_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_self_att_weight_to_fp16, x = input_741_cast_fp16)[name = tensor("query_29_cast_fp16")]; - tensor model_encoder_layers_14_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(180539584)))]; - tensor model_encoder_layers_14_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(181063936)))]; - tensor linear_128_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_q_weight_to_fp16, x = query_29_cast_fp16)[name = tensor("linear_128_cast_fp16")]; + tensor model_encoder_layers_14_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184780864)))]; + tensor model_encoder_layers_14_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184781952)))]; + tensor query_29_cast_fp16 = layer_norm(axes = query_29_axes_0, beta = model_encoder_layers_14_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_self_att_weight_to_fp16, x = input_741_cast_fp16)[name = tensor("query_29_cast_fp16")]; + tensor model_encoder_layers_14_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184783040)))]; + tensor model_encoder_layers_14_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(185307392)))]; + tensor linear_128_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_q_weight_to_fp16, x = query_29_cast_fp16)[name = tensor("linear_128_cast_fp16")]; tensor var_2598 = const()[name = tensor("op_2598"), val = tensor([1, -1, 8, 64])]; - tensor q_85_cast_fp16 = reshape(shape = var_2598, x = linear_128_cast_fp16)[name = tensor("q_85_cast_fp16")]; - tensor model_encoder_layers_14_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(181065024)))]; - tensor model_encoder_layers_14_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(181589376)))]; - tensor linear_129_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_k_weight_to_fp16, x = query_29_cast_fp16)[name = tensor("linear_129_cast_fp16")]; + tensor q_85_cast_fp16 = reshape(shape = var_2598, x = linear_128_cast_fp16)[name = tensor("q_85_cast_fp16")]; + tensor model_encoder_layers_14_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(185308480)))]; + tensor model_encoder_layers_14_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(185832832)))]; + tensor linear_129_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_k_weight_to_fp16, x = query_29_cast_fp16)[name = tensor("linear_129_cast_fp16")]; tensor var_2603 = const()[name = tensor("op_2603"), val = tensor([1, -1, 8, 64])]; - tensor k_57_cast_fp16 = reshape(shape = var_2603, x = linear_129_cast_fp16)[name = tensor("k_57_cast_fp16")]; - tensor model_encoder_layers_14_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(181590464)))]; - tensor model_encoder_layers_14_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(182114816)))]; - tensor linear_130_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_v_weight_to_fp16, x = query_29_cast_fp16)[name = tensor("linear_130_cast_fp16")]; + tensor k_57_cast_fp16 = reshape(shape = var_2603, x = linear_129_cast_fp16)[name = tensor("k_57_cast_fp16")]; + tensor model_encoder_layers_14_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(185833920)))]; + tensor model_encoder_layers_14_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(186358272)))]; + tensor linear_130_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_v_weight_to_fp16, x = query_29_cast_fp16)[name = tensor("linear_130_cast_fp16")]; tensor var_2608 = const()[name = tensor("op_2608"), val = tensor([1, -1, 8, 64])]; - tensor v_29_cast_fp16 = reshape(shape = var_2608, x = linear_130_cast_fp16)[name = tensor("v_29_cast_fp16")]; + tensor v_29_cast_fp16 = reshape(shape = var_2608, x = linear_130_cast_fp16)[name = tensor("v_29_cast_fp16")]; tensor value_29_perm_0 = const()[name = tensor("value_29_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_14_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(182115904)))]; - tensor var_2620_cast_fp16 = add(x = q_85_cast_fp16, y = model_encoder_layers_14_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2620_cast_fp16")]; - tensor model_encoder_layers_14_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(182116992)))]; - tensor var_2622_cast_fp16 = add(x = q_85_cast_fp16, y = model_encoder_layers_14_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2622_cast_fp16")]; + tensor model_encoder_layers_14_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(186359360)))]; + tensor var_2620_cast_fp16 = add(x = q_85_cast_fp16, y = model_encoder_layers_14_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2620_cast_fp16")]; + tensor model_encoder_layers_14_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(186360448)))]; + tensor var_2622_cast_fp16 = add(x = q_85_cast_fp16, y = model_encoder_layers_14_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2622_cast_fp16")]; tensor q_with_bias_v_29_perm_0 = const()[name = tensor("q_with_bias_v_29_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_313_transpose_x_0 = const()[name = tensor("x_313_transpose_x_0"), val = tensor(false)]; tensor x_313_transpose_y_0 = const()[name = tensor("x_313_transpose_y_0"), val = tensor(false)]; - tensor var_2624_to_fp16 = const()[name = tensor("op_2624_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(182118080)))]; - tensor q_with_bias_v_29_cast_fp16 = transpose(perm = q_with_bias_v_29_perm_0, x = var_2622_cast_fp16)[name = tensor("transpose_212")]; - tensor x_313_cast_fp16 = matmul(transpose_x = x_313_transpose_x_0, transpose_y = x_313_transpose_y_0, x = q_with_bias_v_29_cast_fp16, y = var_2624_to_fp16)[name = tensor("x_313_cast_fp16")]; + tensor var_2624_to_fp16 = const()[name = tensor("op_2624_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(186361536)))]; + tensor q_with_bias_v_29_cast_fp16 = transpose(perm = q_with_bias_v_29_perm_0, x = var_2622_cast_fp16)[name = tensor("transpose_212")]; + tensor x_313_cast_fp16 = matmul(transpose_x = x_313_transpose_x_0, transpose_y = x_313_transpose_y_0, x = q_with_bias_v_29_cast_fp16, y = var_2624_to_fp16)[name = tensor("x_313_cast_fp16")]; tensor x_315_pad_0 = const()[name = tensor("x_315_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_315_mode_0 = const()[name = tensor("x_315_mode_0"), val = tensor("constant")]; tensor const_152_to_fp16 = const()[name = tensor("const_152_to_fp16"), val = tensor(0x0p+0)]; - tensor x_315_cast_fp16 = pad(constant_val = const_152_to_fp16, mode = x_315_mode_0, pad = x_315_pad_0, x = x_313_cast_fp16)[name = tensor("x_315_cast_fp16")]; - tensor var_2632 = const()[name = tensor("op_2632"), val = tensor([1, 8, -1, 242])]; - tensor x_317_cast_fp16 = reshape(shape = var_2632, x = x_315_cast_fp16)[name = tensor("x_317_cast_fp16")]; + tensor x_315_cast_fp16 = pad(constant_val = const_152_to_fp16, mode = x_315_mode_0, pad = x_315_pad_0, x = x_313_cast_fp16)[name = tensor("x_315_cast_fp16")]; + tensor var_2632 = const()[name = tensor("op_2632"), val = tensor([1, 8, -1, 390])]; + tensor x_317_cast_fp16 = reshape(shape = var_2632, x = x_315_cast_fp16)[name = tensor("x_317_cast_fp16")]; tensor var_2636_begin_0 = const()[name = tensor("op_2636_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_2636_end_0 = const()[name = tensor("op_2636_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_2636_end_0 = const()[name = tensor("op_2636_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_2636_end_mask_0 = const()[name = tensor("op_2636_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_2636_cast_fp16 = slice_by_index(begin = var_2636_begin_0, end = var_2636_end_0, end_mask = var_2636_end_mask_0, x = x_317_cast_fp16)[name = tensor("op_2636_cast_fp16")]; - tensor var_2637 = const()[name = tensor("op_2637"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_57_cast_fp16 = reshape(shape = var_2637, x = var_2636_cast_fp16)[name = tensor("matrix_bd_57_cast_fp16")]; + tensor var_2636_cast_fp16 = slice_by_index(begin = var_2636_begin_0, end = var_2636_end_0, end_mask = var_2636_end_mask_0, x = x_317_cast_fp16)[name = tensor("op_2636_cast_fp16")]; + tensor var_2637 = const()[name = tensor("op_2637"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_57_cast_fp16 = reshape(shape = var_2637, x = var_2636_cast_fp16)[name = tensor("matrix_bd_57_cast_fp16")]; tensor matrix_ac_29_transpose_x_0 = const()[name = tensor("matrix_ac_29_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_29_transpose_y_0 = const()[name = tensor("matrix_ac_29_transpose_y_0"), val = tensor(false)]; tensor transpose_79_perm_0 = const()[name = tensor("transpose_79_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_80_perm_0 = const()[name = tensor("transpose_80_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_80 = transpose(perm = transpose_80_perm_0, x = k_57_cast_fp16)[name = tensor("transpose_210")]; - tensor transpose_79 = transpose(perm = transpose_79_perm_0, x = var_2620_cast_fp16)[name = tensor("transpose_211")]; - tensor matrix_ac_29_cast_fp16 = matmul(transpose_x = matrix_ac_29_transpose_x_0, transpose_y = matrix_ac_29_transpose_y_0, x = transpose_79, y = transpose_80)[name = tensor("matrix_ac_29_cast_fp16")]; + tensor transpose_80 = transpose(perm = transpose_80_perm_0, x = k_57_cast_fp16)[name = tensor("transpose_210")]; + tensor transpose_79 = transpose(perm = transpose_79_perm_0, x = var_2620_cast_fp16)[name = tensor("transpose_211")]; + tensor matrix_ac_29_cast_fp16 = matmul(transpose_x = matrix_ac_29_transpose_x_0, transpose_y = matrix_ac_29_transpose_y_0, x = transpose_79, y = transpose_80)[name = tensor("matrix_ac_29_cast_fp16")]; tensor matrix_bd_59_begin_0 = const()[name = tensor("matrix_bd_59_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_59_end_0 = const()[name = tensor("matrix_bd_59_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_59_end_0 = const()[name = tensor("matrix_bd_59_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_59_end_mask_0 = const()[name = tensor("matrix_bd_59_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_59_cast_fp16 = slice_by_index(begin = matrix_bd_59_begin_0, end = matrix_bd_59_end_0, end_mask = matrix_bd_59_end_mask_0, x = matrix_bd_57_cast_fp16)[name = tensor("matrix_bd_59_cast_fp16")]; - tensor var_2646_cast_fp16 = add(x = matrix_ac_29_cast_fp16, y = matrix_bd_59_cast_fp16)[name = tensor("op_2646_cast_fp16")]; + tensor matrix_bd_59_cast_fp16 = slice_by_index(begin = matrix_bd_59_begin_0, end = matrix_bd_59_end_0, end_mask = matrix_bd_59_end_mask_0, x = matrix_bd_57_cast_fp16)[name = tensor("matrix_bd_59_cast_fp16")]; + tensor var_2646_cast_fp16 = add(x = matrix_ac_29_cast_fp16, y = matrix_bd_59_cast_fp16)[name = tensor("op_2646_cast_fp16")]; tensor _inversed_scores_57_y_0_to_fp16 = const()[name = tensor("_inversed_scores_57_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_57_cast_fp16 = mul(x = var_2646_cast_fp16, y = _inversed_scores_57_y_0_to_fp16)[name = tensor("_inversed_scores_57_cast_fp16")]; - tensor scores_59_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_57_cast_fp16, cond = mask_3)[name = tensor("scores_59_cast_fp16")]; - tensor var_2652_cast_fp16 = softmax(axis = var_30, x = scores_59_cast_fp16)[name = tensor("op_2652_cast_fp16")]; - tensor input_743_cast_fp16 = select(a = var_21_to_fp16, b = var_2652_cast_fp16, cond = mask_3)[name = tensor("input_743_cast_fp16")]; + tensor _inversed_scores_57_cast_fp16 = mul(x = var_2646_cast_fp16, y = _inversed_scores_57_y_0_to_fp16)[name = tensor("_inversed_scores_57_cast_fp16")]; + tensor scores_59_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_57_cast_fp16, cond = mask_3)[name = tensor("scores_59_cast_fp16")]; + tensor var_2652_cast_fp16 = softmax(axis = var_30, x = scores_59_cast_fp16)[name = tensor("op_2652_cast_fp16")]; + tensor input_743_cast_fp16 = select(a = var_21_to_fp16, b = var_2652_cast_fp16, cond = mask_3)[name = tensor("input_743_cast_fp16")]; tensor x_319_transpose_x_0 = const()[name = tensor("x_319_transpose_x_0"), val = tensor(false)]; tensor x_319_transpose_y_0 = const()[name = tensor("x_319_transpose_y_0"), val = tensor(false)]; - tensor value_29_cast_fp16 = transpose(perm = value_29_perm_0, x = v_29_cast_fp16)[name = tensor("transpose_213")]; - tensor x_319_cast_fp16 = matmul(transpose_x = x_319_transpose_x_0, transpose_y = x_319_transpose_y_0, x = input_743_cast_fp16, y = value_29_cast_fp16)[name = tensor("x_319_cast_fp16")]; + tensor value_29_cast_fp16 = transpose(perm = value_29_perm_0, x = v_29_cast_fp16)[name = tensor("transpose_213")]; + tensor x_319_cast_fp16 = matmul(transpose_x = x_319_transpose_x_0, transpose_y = x_319_transpose_y_0, x = input_743_cast_fp16, y = value_29_cast_fp16)[name = tensor("x_319_cast_fp16")]; tensor var_2656_perm_0 = const()[name = tensor("op_2656_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_2657 = const()[name = tensor("op_2657"), val = tensor([1, -1, 512])]; - tensor var_2656_cast_fp16 = transpose(perm = var_2656_perm_0, x = x_319_cast_fp16)[name = tensor("transpose_209")]; - tensor input_745_cast_fp16 = reshape(shape = var_2657, x = var_2656_cast_fp16)[name = tensor("input_745_cast_fp16")]; - tensor model_encoder_layers_14_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(182612736)))]; - tensor model_encoder_layers_14_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(183137088)))]; - tensor linear_132_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_out_weight_to_fp16, x = input_745_cast_fp16)[name = tensor("linear_132_cast_fp16")]; - tensor input_749_cast_fp16 = add(x = input_741_cast_fp16, y = linear_132_cast_fp16)[name = tensor("input_749_cast_fp16")]; + tensor var_2656_cast_fp16 = transpose(perm = var_2656_perm_0, x = x_319_cast_fp16)[name = tensor("transpose_209")]; + tensor input_745_cast_fp16 = reshape(shape = var_2657, x = var_2656_cast_fp16)[name = tensor("input_745_cast_fp16")]; + tensor model_encoder_layers_14_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(187159296)))]; + tensor model_encoder_layers_14_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(187683648)))]; + tensor linear_132_cast_fp16 = linear(bias = model_encoder_layers_14_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_14_self_attn_linear_out_weight_to_fp16, x = input_745_cast_fp16)[name = tensor("linear_132_cast_fp16")]; + tensor input_749_cast_fp16 = add(x = input_741_cast_fp16, y = linear_132_cast_fp16)[name = tensor("input_749_cast_fp16")]; tensor x_323_axes_0 = const()[name = tensor("x_323_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_14_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(183138176)))]; - tensor model_encoder_layers_14_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(183139264)))]; - tensor x_323_cast_fp16 = layer_norm(axes = x_323_axes_0, beta = model_encoder_layers_14_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_conv_weight_to_fp16, x = input_749_cast_fp16)[name = tensor("x_323_cast_fp16")]; + tensor model_encoder_layers_14_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(187684736)))]; + tensor model_encoder_layers_14_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(187685824)))]; + tensor x_323_cast_fp16 = layer_norm(axes = x_323_axes_0, beta = model_encoder_layers_14_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_conv_weight_to_fp16, x = input_749_cast_fp16)[name = tensor("x_323_cast_fp16")]; tensor input_751_perm_0 = const()[name = tensor("input_751_perm_0"), val = tensor([0, 2, 1])]; tensor input_753_pad_type_0 = const()[name = tensor("input_753_pad_type_0"), val = tensor("valid")]; tensor input_753_strides_0 = const()[name = tensor("input_753_strides_0"), val = tensor([1])]; tensor input_753_pad_0 = const()[name = tensor("input_753_pad_0"), val = tensor([0, 0])]; tensor input_753_dilations_0 = const()[name = tensor("input_753_dilations_0"), val = tensor([1])]; tensor input_753_groups_0 = const()[name = tensor("input_753_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_14_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(183140352)))]; - tensor model_encoder_layers_14_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184188992)))]; - tensor input_751_cast_fp16 = transpose(perm = input_751_perm_0, x = x_323_cast_fp16)[name = tensor("transpose_208")]; - tensor input_753_cast_fp16 = conv(bias = model_encoder_layers_14_conv_pointwise_conv1_bias_to_fp16, dilations = input_753_dilations_0, groups = input_753_groups_0, pad = input_753_pad_0, pad_type = input_753_pad_type_0, strides = input_753_strides_0, weight = model_encoder_layers_14_conv_pointwise_conv1_weight_to_fp16, x = input_751_cast_fp16)[name = tensor("input_753_cast_fp16")]; + tensor model_encoder_layers_14_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(187686912)))]; + tensor model_encoder_layers_14_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188735552)))]; + tensor input_751_cast_fp16 = transpose(perm = input_751_perm_0, x = x_323_cast_fp16)[name = tensor("transpose_208")]; + tensor input_753_cast_fp16 = conv(bias = model_encoder_layers_14_conv_pointwise_conv1_bias_to_fp16, dilations = input_753_dilations_0, groups = input_753_groups_0, pad = input_753_pad_0, pad_type = input_753_pad_type_0, strides = input_753_strides_0, weight = model_encoder_layers_14_conv_pointwise_conv1_weight_to_fp16, x = input_751_cast_fp16)[name = tensor("input_753_cast_fp16")]; tensor x_325_split_num_splits_0 = const()[name = tensor("x_325_split_num_splits_0"), val = tensor(2)]; tensor x_325_split_axis_0 = const()[name = tensor("x_325_split_axis_0"), val = tensor(1)]; - tensor x_325_split_cast_fp16_0, tensor x_325_split_cast_fp16_1 = split(axis = x_325_split_axis_0, num_splits = x_325_split_num_splits_0, x = input_753_cast_fp16)[name = tensor("x_325_split_cast_fp16")]; - tensor x_325_split_1_sigmoid_cast_fp16 = sigmoid(x = x_325_split_cast_fp16_1)[name = tensor("x_325_split_1_sigmoid_cast_fp16")]; - tensor x_325_cast_fp16 = mul(x = x_325_split_cast_fp16_0, y = x_325_split_1_sigmoid_cast_fp16)[name = tensor("x_325_cast_fp16")]; - tensor input_755_cast_fp16 = select(a = var_21_to_fp16, b = x_325_cast_fp16, cond = var_245)[name = tensor("input_755_cast_fp16")]; + tensor x_325_split_cast_fp16_0, tensor x_325_split_cast_fp16_1 = split(axis = x_325_split_axis_0, num_splits = x_325_split_num_splits_0, x = input_753_cast_fp16)[name = tensor("x_325_split_cast_fp16")]; + tensor x_325_split_1_sigmoid_cast_fp16 = sigmoid(x = x_325_split_cast_fp16_1)[name = tensor("x_325_split_1_sigmoid_cast_fp16")]; + tensor x_325_cast_fp16 = mul(x = x_325_split_cast_fp16_0, y = x_325_split_1_sigmoid_cast_fp16)[name = tensor("x_325_cast_fp16")]; + tensor input_755_cast_fp16 = select(a = var_21_to_fp16, b = x_325_cast_fp16, cond = var_245)[name = tensor("input_755_cast_fp16")]; tensor input_757_pad_0 = const()[name = tensor("input_757_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_757_mode_0 = const()[name = tensor("input_757_mode_0"), val = tensor("constant")]; tensor const_155_to_fp16 = const()[name = tensor("const_155_to_fp16"), val = tensor(0x0p+0)]; - tensor input_757_cast_fp16 = pad(constant_val = const_155_to_fp16, mode = input_757_mode_0, pad = input_757_pad_0, x = input_755_cast_fp16)[name = tensor("input_757_cast_fp16")]; + tensor input_757_cast_fp16 = pad(constant_val = const_155_to_fp16, mode = input_757_mode_0, pad = input_757_pad_0, x = input_755_cast_fp16)[name = tensor("input_757_cast_fp16")]; tensor input_759_pad_type_0 = const()[name = tensor("input_759_pad_type_0"), val = tensor("valid")]; tensor input_759_groups_0 = const()[name = tensor("input_759_groups_0"), val = tensor(512)]; tensor input_759_strides_0 = const()[name = tensor("input_759_strides_0"), val = tensor([1])]; tensor input_759_pad_0 = const()[name = tensor("input_759_pad_0"), val = tensor([0, 0])]; tensor input_759_dilations_0 = const()[name = tensor("input_759_dilations_0"), val = tensor([1])]; - tensor const_370_to_fp16 = const()[name = tensor("const_370_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184191104)))]; - tensor const_371_to_fp16 = const()[name = tensor("const_371_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184200384)))]; - tensor input_761_cast_fp16 = conv(bias = const_371_to_fp16, dilations = input_759_dilations_0, groups = input_759_groups_0, pad = input_759_pad_0, pad_type = input_759_pad_type_0, strides = input_759_strides_0, weight = const_370_to_fp16, x = input_757_cast_fp16)[name = tensor("input_761_cast_fp16")]; - tensor input_763_cast_fp16 = silu(x = input_761_cast_fp16)[name = tensor("input_763_cast_fp16")]; + tensor const_370_to_fp16 = const()[name = tensor("const_370_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188737664)))]; + tensor const_371_to_fp16 = const()[name = tensor("const_371_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188746944)))]; + tensor input_761_cast_fp16 = conv(bias = const_371_to_fp16, dilations = input_759_dilations_0, groups = input_759_groups_0, pad = input_759_pad_0, pad_type = input_759_pad_type_0, strides = input_759_strides_0, weight = const_370_to_fp16, x = input_757_cast_fp16)[name = tensor("input_761_cast_fp16")]; + tensor input_763_cast_fp16 = silu(x = input_761_cast_fp16)[name = tensor("input_763_cast_fp16")]; tensor x_327_pad_type_0 = const()[name = tensor("x_327_pad_type_0"), val = tensor("valid")]; tensor x_327_strides_0 = const()[name = tensor("x_327_strides_0"), val = tensor([1])]; tensor x_327_pad_0 = const()[name = tensor("x_327_pad_0"), val = tensor([0, 0])]; tensor x_327_dilations_0 = const()[name = tensor("x_327_dilations_0"), val = tensor([1])]; tensor x_327_groups_0 = const()[name = tensor("x_327_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_14_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184201472)))]; - tensor model_encoder_layers_14_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184725824)))]; - tensor x_327_cast_fp16 = conv(bias = model_encoder_layers_14_conv_pointwise_conv2_bias_to_fp16, dilations = x_327_dilations_0, groups = x_327_groups_0, pad = x_327_pad_0, pad_type = x_327_pad_type_0, strides = x_327_strides_0, weight = model_encoder_layers_14_conv_pointwise_conv2_weight_to_fp16, x = input_763_cast_fp16)[name = tensor("x_327_cast_fp16")]; + tensor model_encoder_layers_14_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188748032)))]; + tensor model_encoder_layers_14_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(189272384)))]; + tensor x_327_cast_fp16 = conv(bias = model_encoder_layers_14_conv_pointwise_conv2_bias_to_fp16, dilations = x_327_dilations_0, groups = x_327_groups_0, pad = x_327_pad_0, pad_type = x_327_pad_type_0, strides = x_327_strides_0, weight = model_encoder_layers_14_conv_pointwise_conv2_weight_to_fp16, x = input_763_cast_fp16)[name = tensor("x_327_cast_fp16")]; tensor input_765_perm_0 = const()[name = tensor("input_765_perm_0"), val = tensor([0, 2, 1])]; - tensor input_765_cast_fp16 = transpose(perm = input_765_perm_0, x = x_327_cast_fp16)[name = tensor("transpose_207")]; - tensor input_767_cast_fp16 = add(x = input_749_cast_fp16, y = input_765_cast_fp16)[name = tensor("input_767_cast_fp16")]; + tensor input_765_cast_fp16 = transpose(perm = input_765_perm_0, x = x_327_cast_fp16)[name = tensor("transpose_207")]; + tensor input_767_cast_fp16 = add(x = input_749_cast_fp16, y = input_765_cast_fp16)[name = tensor("input_767_cast_fp16")]; tensor input_769_axes_0 = const()[name = tensor("input_769_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_14_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184726912)))]; - tensor model_encoder_layers_14_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184728000)))]; - tensor input_769_cast_fp16 = layer_norm(axes = input_769_axes_0, beta = model_encoder_layers_14_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_feed_forward2_weight_to_fp16, x = input_767_cast_fp16)[name = tensor("input_769_cast_fp16")]; - tensor model_encoder_layers_14_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(184729088)))]; - tensor model_encoder_layers_14_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(186826304)))]; - tensor linear_133_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_14_feed_forward2_linear1_weight_to_fp16, x = input_769_cast_fp16)[name = tensor("linear_133_cast_fp16")]; - tensor input_773_cast_fp16 = silu(x = linear_133_cast_fp16)[name = tensor("input_773_cast_fp16")]; - tensor model_encoder_layers_14_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(186830464)))]; - tensor model_encoder_layers_14_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188927680)))]; - tensor linear_134_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_14_feed_forward2_linear2_weight_to_fp16, x = input_773_cast_fp16)[name = tensor("linear_134_cast_fp16")]; + tensor model_encoder_layers_14_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(189273472)))]; + tensor model_encoder_layers_14_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(189274560)))]; + tensor input_769_cast_fp16 = layer_norm(axes = input_769_axes_0, beta = model_encoder_layers_14_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_feed_forward2_weight_to_fp16, x = input_767_cast_fp16)[name = tensor("input_769_cast_fp16")]; + tensor model_encoder_layers_14_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(189275648)))]; + tensor model_encoder_layers_14_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(191372864)))]; + tensor linear_133_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_14_feed_forward2_linear1_weight_to_fp16, x = input_769_cast_fp16)[name = tensor("linear_133_cast_fp16")]; + tensor input_773_cast_fp16 = silu(x = linear_133_cast_fp16)[name = tensor("input_773_cast_fp16")]; + tensor model_encoder_layers_14_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(191377024)))]; + tensor model_encoder_layers_14_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193474240)))]; + tensor linear_134_cast_fp16 = linear(bias = model_encoder_layers_14_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_14_feed_forward2_linear2_weight_to_fp16, x = input_773_cast_fp16)[name = tensor("linear_134_cast_fp16")]; tensor var_2723_to_fp16 = const()[name = tensor("op_2723_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2724_cast_fp16 = mul(x = linear_134_cast_fp16, y = var_2723_to_fp16)[name = tensor("op_2724_cast_fp16")]; - tensor input_779_cast_fp16 = add(x = input_767_cast_fp16, y = var_2724_cast_fp16)[name = tensor("input_779_cast_fp16")]; + tensor var_2724_cast_fp16 = mul(x = linear_134_cast_fp16, y = var_2723_to_fp16)[name = tensor("op_2724_cast_fp16")]; + tensor input_779_cast_fp16 = add(x = input_767_cast_fp16, y = var_2724_cast_fp16)[name = tensor("input_779_cast_fp16")]; tensor input_781_axes_0 = const()[name = tensor("input_781_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_14_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188928768)))]; - tensor model_encoder_layers_14_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188929856)))]; - tensor input_781_cast_fp16 = layer_norm(axes = input_781_axes_0, beta = model_encoder_layers_14_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_out_weight_to_fp16, x = input_779_cast_fp16)[name = tensor("input_781_cast_fp16")]; + tensor model_encoder_layers_14_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193475328)))]; + tensor model_encoder_layers_14_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_14_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193476416)))]; + tensor input_781_cast_fp16 = layer_norm(axes = input_781_axes_0, beta = model_encoder_layers_14_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_14_norm_out_weight_to_fp16, x = input_779_cast_fp16)[name = tensor("input_781_cast_fp16")]; tensor input_783_axes_0 = const()[name = tensor("input_783_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_15_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188930944)))]; - tensor model_encoder_layers_15_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188932032)))]; - tensor input_783_cast_fp16 = layer_norm(axes = input_783_axes_0, beta = model_encoder_layers_15_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_feed_forward1_weight_to_fp16, x = input_781_cast_fp16)[name = tensor("input_783_cast_fp16")]; - tensor model_encoder_layers_15_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(188933120)))]; - tensor model_encoder_layers_15_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(191030336)))]; - tensor linear_135_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_15_feed_forward1_linear1_weight_to_fp16, x = input_783_cast_fp16)[name = tensor("linear_135_cast_fp16")]; - tensor input_787_cast_fp16 = silu(x = linear_135_cast_fp16)[name = tensor("input_787_cast_fp16")]; - tensor model_encoder_layers_15_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(191034496)))]; - tensor model_encoder_layers_15_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193131712)))]; - tensor linear_136_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_15_feed_forward1_linear2_weight_to_fp16, x = input_787_cast_fp16)[name = tensor("linear_136_cast_fp16")]; + tensor model_encoder_layers_15_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193477504)))]; + tensor model_encoder_layers_15_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193478592)))]; + tensor input_783_cast_fp16 = layer_norm(axes = input_783_axes_0, beta = model_encoder_layers_15_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_feed_forward1_weight_to_fp16, x = input_781_cast_fp16)[name = tensor("input_783_cast_fp16")]; + tensor model_encoder_layers_15_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193479680)))]; + tensor model_encoder_layers_15_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(195576896)))]; + tensor linear_135_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_15_feed_forward1_linear1_weight_to_fp16, x = input_783_cast_fp16)[name = tensor("linear_135_cast_fp16")]; + tensor input_787_cast_fp16 = silu(x = linear_135_cast_fp16)[name = tensor("input_787_cast_fp16")]; + tensor model_encoder_layers_15_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(195581056)))]; + tensor model_encoder_layers_15_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197678272)))]; + tensor linear_136_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_15_feed_forward1_linear2_weight_to_fp16, x = input_787_cast_fp16)[name = tensor("linear_136_cast_fp16")]; tensor var_2754_to_fp16 = const()[name = tensor("op_2754_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2755_cast_fp16 = mul(x = linear_136_cast_fp16, y = var_2754_to_fp16)[name = tensor("op_2755_cast_fp16")]; - tensor input_793_cast_fp16 = add(x = input_781_cast_fp16, y = var_2755_cast_fp16)[name = tensor("input_793_cast_fp16")]; + tensor var_2755_cast_fp16 = mul(x = linear_136_cast_fp16, y = var_2754_to_fp16)[name = tensor("op_2755_cast_fp16")]; + tensor input_793_cast_fp16 = add(x = input_781_cast_fp16, y = var_2755_cast_fp16)[name = tensor("input_793_cast_fp16")]; tensor query_31_axes_0 = const()[name = tensor("query_31_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_15_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193132800)))]; - tensor model_encoder_layers_15_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193133888)))]; - tensor query_31_cast_fp16 = layer_norm(axes = query_31_axes_0, beta = model_encoder_layers_15_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_self_att_weight_to_fp16, x = input_793_cast_fp16)[name = tensor("query_31_cast_fp16")]; - tensor model_encoder_layers_15_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193134976)))]; - tensor model_encoder_layers_15_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193659328)))]; - tensor linear_137_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_q_weight_to_fp16, x = query_31_cast_fp16)[name = tensor("linear_137_cast_fp16")]; + tensor model_encoder_layers_15_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197679360)))]; + tensor model_encoder_layers_15_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197680448)))]; + tensor query_31_cast_fp16 = layer_norm(axes = query_31_axes_0, beta = model_encoder_layers_15_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_self_att_weight_to_fp16, x = input_793_cast_fp16)[name = tensor("query_31_cast_fp16")]; + tensor model_encoder_layers_15_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197681536)))]; + tensor model_encoder_layers_15_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(198205888)))]; + tensor linear_137_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_q_weight_to_fp16, x = query_31_cast_fp16)[name = tensor("linear_137_cast_fp16")]; tensor var_2772 = const()[name = tensor("op_2772"), val = tensor([1, -1, 8, 64])]; - tensor q_91_cast_fp16 = reshape(shape = var_2772, x = linear_137_cast_fp16)[name = tensor("q_91_cast_fp16")]; - tensor model_encoder_layers_15_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(193660416)))]; - tensor model_encoder_layers_15_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(194184768)))]; - tensor linear_138_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_k_weight_to_fp16, x = query_31_cast_fp16)[name = tensor("linear_138_cast_fp16")]; + tensor q_91_cast_fp16 = reshape(shape = var_2772, x = linear_137_cast_fp16)[name = tensor("q_91_cast_fp16")]; + tensor model_encoder_layers_15_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(198206976)))]; + tensor model_encoder_layers_15_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(198731328)))]; + tensor linear_138_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_k_weight_to_fp16, x = query_31_cast_fp16)[name = tensor("linear_138_cast_fp16")]; tensor var_2777 = const()[name = tensor("op_2777"), val = tensor([1, -1, 8, 64])]; - tensor k_61_cast_fp16 = reshape(shape = var_2777, x = linear_138_cast_fp16)[name = tensor("k_61_cast_fp16")]; - tensor model_encoder_layers_15_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(194185856)))]; - tensor model_encoder_layers_15_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(194710208)))]; - tensor linear_139_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_v_weight_to_fp16, x = query_31_cast_fp16)[name = tensor("linear_139_cast_fp16")]; + tensor k_61_cast_fp16 = reshape(shape = var_2777, x = linear_138_cast_fp16)[name = tensor("k_61_cast_fp16")]; + tensor model_encoder_layers_15_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(198732416)))]; + tensor model_encoder_layers_15_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(199256768)))]; + tensor linear_139_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_v_weight_to_fp16, x = query_31_cast_fp16)[name = tensor("linear_139_cast_fp16")]; tensor var_2782 = const()[name = tensor("op_2782"), val = tensor([1, -1, 8, 64])]; - tensor v_31_cast_fp16 = reshape(shape = var_2782, x = linear_139_cast_fp16)[name = tensor("v_31_cast_fp16")]; + tensor v_31_cast_fp16 = reshape(shape = var_2782, x = linear_139_cast_fp16)[name = tensor("v_31_cast_fp16")]; tensor value_31_perm_0 = const()[name = tensor("value_31_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_15_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(194711296)))]; - tensor var_2794_cast_fp16 = add(x = q_91_cast_fp16, y = model_encoder_layers_15_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2794_cast_fp16")]; - tensor model_encoder_layers_15_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(194712384)))]; - tensor var_2796_cast_fp16 = add(x = q_91_cast_fp16, y = model_encoder_layers_15_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2796_cast_fp16")]; + tensor model_encoder_layers_15_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(199257856)))]; + tensor var_2794_cast_fp16 = add(x = q_91_cast_fp16, y = model_encoder_layers_15_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2794_cast_fp16")]; + tensor model_encoder_layers_15_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(199258944)))]; + tensor var_2796_cast_fp16 = add(x = q_91_cast_fp16, y = model_encoder_layers_15_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2796_cast_fp16")]; tensor q_with_bias_v_31_perm_0 = const()[name = tensor("q_with_bias_v_31_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_335_transpose_x_0 = const()[name = tensor("x_335_transpose_x_0"), val = tensor(false)]; tensor x_335_transpose_y_0 = const()[name = tensor("x_335_transpose_y_0"), val = tensor(false)]; - tensor var_2798_to_fp16 = const()[name = tensor("op_2798_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(194713472)))]; - tensor q_with_bias_v_31_cast_fp16 = transpose(perm = q_with_bias_v_31_perm_0, x = var_2796_cast_fp16)[name = tensor("transpose_205")]; - tensor x_335_cast_fp16 = matmul(transpose_x = x_335_transpose_x_0, transpose_y = x_335_transpose_y_0, x = q_with_bias_v_31_cast_fp16, y = var_2798_to_fp16)[name = tensor("x_335_cast_fp16")]; + tensor var_2798_to_fp16 = const()[name = tensor("op_2798_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(199260032)))]; + tensor q_with_bias_v_31_cast_fp16 = transpose(perm = q_with_bias_v_31_perm_0, x = var_2796_cast_fp16)[name = tensor("transpose_205")]; + tensor x_335_cast_fp16 = matmul(transpose_x = x_335_transpose_x_0, transpose_y = x_335_transpose_y_0, x = q_with_bias_v_31_cast_fp16, y = var_2798_to_fp16)[name = tensor("x_335_cast_fp16")]; tensor x_337_pad_0 = const()[name = tensor("x_337_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_337_mode_0 = const()[name = tensor("x_337_mode_0"), val = tensor("constant")]; tensor const_162_to_fp16 = const()[name = tensor("const_162_to_fp16"), val = tensor(0x0p+0)]; - tensor x_337_cast_fp16 = pad(constant_val = const_162_to_fp16, mode = x_337_mode_0, pad = x_337_pad_0, x = x_335_cast_fp16)[name = tensor("x_337_cast_fp16")]; - tensor var_2806 = const()[name = tensor("op_2806"), val = tensor([1, 8, -1, 242])]; - tensor x_339_cast_fp16 = reshape(shape = var_2806, x = x_337_cast_fp16)[name = tensor("x_339_cast_fp16")]; + tensor x_337_cast_fp16 = pad(constant_val = const_162_to_fp16, mode = x_337_mode_0, pad = x_337_pad_0, x = x_335_cast_fp16)[name = tensor("x_337_cast_fp16")]; + tensor var_2806 = const()[name = tensor("op_2806"), val = tensor([1, 8, -1, 390])]; + tensor x_339_cast_fp16 = reshape(shape = var_2806, x = x_337_cast_fp16)[name = tensor("x_339_cast_fp16")]; tensor var_2810_begin_0 = const()[name = tensor("op_2810_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_2810_end_0 = const()[name = tensor("op_2810_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_2810_end_0 = const()[name = tensor("op_2810_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_2810_end_mask_0 = const()[name = tensor("op_2810_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_2810_cast_fp16 = slice_by_index(begin = var_2810_begin_0, end = var_2810_end_0, end_mask = var_2810_end_mask_0, x = x_339_cast_fp16)[name = tensor("op_2810_cast_fp16")]; - tensor var_2811 = const()[name = tensor("op_2811"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_61_cast_fp16 = reshape(shape = var_2811, x = var_2810_cast_fp16)[name = tensor("matrix_bd_61_cast_fp16")]; + tensor var_2810_cast_fp16 = slice_by_index(begin = var_2810_begin_0, end = var_2810_end_0, end_mask = var_2810_end_mask_0, x = x_339_cast_fp16)[name = tensor("op_2810_cast_fp16")]; + tensor var_2811 = const()[name = tensor("op_2811"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_61_cast_fp16 = reshape(shape = var_2811, x = var_2810_cast_fp16)[name = tensor("matrix_bd_61_cast_fp16")]; tensor matrix_ac_31_transpose_x_0 = const()[name = tensor("matrix_ac_31_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_31_transpose_y_0 = const()[name = tensor("matrix_ac_31_transpose_y_0"), val = tensor(false)]; tensor transpose_81_perm_0 = const()[name = tensor("transpose_81_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_82_perm_0 = const()[name = tensor("transpose_82_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_82 = transpose(perm = transpose_82_perm_0, x = k_61_cast_fp16)[name = tensor("transpose_203")]; - tensor transpose_81 = transpose(perm = transpose_81_perm_0, x = var_2794_cast_fp16)[name = tensor("transpose_204")]; - tensor matrix_ac_31_cast_fp16 = matmul(transpose_x = matrix_ac_31_transpose_x_0, transpose_y = matrix_ac_31_transpose_y_0, x = transpose_81, y = transpose_82)[name = tensor("matrix_ac_31_cast_fp16")]; + tensor transpose_82 = transpose(perm = transpose_82_perm_0, x = k_61_cast_fp16)[name = tensor("transpose_203")]; + tensor transpose_81 = transpose(perm = transpose_81_perm_0, x = var_2794_cast_fp16)[name = tensor("transpose_204")]; + tensor matrix_ac_31_cast_fp16 = matmul(transpose_x = matrix_ac_31_transpose_x_0, transpose_y = matrix_ac_31_transpose_y_0, x = transpose_81, y = transpose_82)[name = tensor("matrix_ac_31_cast_fp16")]; tensor matrix_bd_63_begin_0 = const()[name = tensor("matrix_bd_63_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_63_end_0 = const()[name = tensor("matrix_bd_63_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_63_end_0 = const()[name = tensor("matrix_bd_63_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_63_end_mask_0 = const()[name = tensor("matrix_bd_63_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_63_cast_fp16 = slice_by_index(begin = matrix_bd_63_begin_0, end = matrix_bd_63_end_0, end_mask = matrix_bd_63_end_mask_0, x = matrix_bd_61_cast_fp16)[name = tensor("matrix_bd_63_cast_fp16")]; - tensor var_2820_cast_fp16 = add(x = matrix_ac_31_cast_fp16, y = matrix_bd_63_cast_fp16)[name = tensor("op_2820_cast_fp16")]; + tensor matrix_bd_63_cast_fp16 = slice_by_index(begin = matrix_bd_63_begin_0, end = matrix_bd_63_end_0, end_mask = matrix_bd_63_end_mask_0, x = matrix_bd_61_cast_fp16)[name = tensor("matrix_bd_63_cast_fp16")]; + tensor var_2820_cast_fp16 = add(x = matrix_ac_31_cast_fp16, y = matrix_bd_63_cast_fp16)[name = tensor("op_2820_cast_fp16")]; tensor _inversed_scores_61_y_0_to_fp16 = const()[name = tensor("_inversed_scores_61_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_61_cast_fp16 = mul(x = var_2820_cast_fp16, y = _inversed_scores_61_y_0_to_fp16)[name = tensor("_inversed_scores_61_cast_fp16")]; - tensor scores_63_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_61_cast_fp16, cond = mask_3)[name = tensor("scores_63_cast_fp16")]; - tensor var_2826_cast_fp16 = softmax(axis = var_30, x = scores_63_cast_fp16)[name = tensor("op_2826_cast_fp16")]; - tensor input_795_cast_fp16 = select(a = var_21_to_fp16, b = var_2826_cast_fp16, cond = mask_3)[name = tensor("input_795_cast_fp16")]; + tensor _inversed_scores_61_cast_fp16 = mul(x = var_2820_cast_fp16, y = _inversed_scores_61_y_0_to_fp16)[name = tensor("_inversed_scores_61_cast_fp16")]; + tensor scores_63_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_61_cast_fp16, cond = mask_3)[name = tensor("scores_63_cast_fp16")]; + tensor var_2826_cast_fp16 = softmax(axis = var_30, x = scores_63_cast_fp16)[name = tensor("op_2826_cast_fp16")]; + tensor input_795_cast_fp16 = select(a = var_21_to_fp16, b = var_2826_cast_fp16, cond = mask_3)[name = tensor("input_795_cast_fp16")]; tensor x_341_transpose_x_0 = const()[name = tensor("x_341_transpose_x_0"), val = tensor(false)]; tensor x_341_transpose_y_0 = const()[name = tensor("x_341_transpose_y_0"), val = tensor(false)]; - tensor value_31_cast_fp16 = transpose(perm = value_31_perm_0, x = v_31_cast_fp16)[name = tensor("transpose_206")]; - tensor x_341_cast_fp16 = matmul(transpose_x = x_341_transpose_x_0, transpose_y = x_341_transpose_y_0, x = input_795_cast_fp16, y = value_31_cast_fp16)[name = tensor("x_341_cast_fp16")]; + tensor value_31_cast_fp16 = transpose(perm = value_31_perm_0, x = v_31_cast_fp16)[name = tensor("transpose_206")]; + tensor x_341_cast_fp16 = matmul(transpose_x = x_341_transpose_x_0, transpose_y = x_341_transpose_y_0, x = input_795_cast_fp16, y = value_31_cast_fp16)[name = tensor("x_341_cast_fp16")]; tensor var_2830_perm_0 = const()[name = tensor("op_2830_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_2831 = const()[name = tensor("op_2831"), val = tensor([1, -1, 512])]; - tensor var_2830_cast_fp16 = transpose(perm = var_2830_perm_0, x = x_341_cast_fp16)[name = tensor("transpose_202")]; - tensor input_797_cast_fp16 = reshape(shape = var_2831, x = var_2830_cast_fp16)[name = tensor("input_797_cast_fp16")]; - tensor model_encoder_layers_15_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(195208128)))]; - tensor model_encoder_layers_15_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(195732480)))]; - tensor linear_141_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_out_weight_to_fp16, x = input_797_cast_fp16)[name = tensor("linear_141_cast_fp16")]; - tensor input_801_cast_fp16 = add(x = input_793_cast_fp16, y = linear_141_cast_fp16)[name = tensor("input_801_cast_fp16")]; + tensor var_2830_cast_fp16 = transpose(perm = var_2830_perm_0, x = x_341_cast_fp16)[name = tensor("transpose_202")]; + tensor input_797_cast_fp16 = reshape(shape = var_2831, x = var_2830_cast_fp16)[name = tensor("input_797_cast_fp16")]; + tensor model_encoder_layers_15_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(200057792)))]; + tensor model_encoder_layers_15_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(200582144)))]; + tensor linear_141_cast_fp16 = linear(bias = model_encoder_layers_15_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_15_self_attn_linear_out_weight_to_fp16, x = input_797_cast_fp16)[name = tensor("linear_141_cast_fp16")]; + tensor input_801_cast_fp16 = add(x = input_793_cast_fp16, y = linear_141_cast_fp16)[name = tensor("input_801_cast_fp16")]; tensor x_345_axes_0 = const()[name = tensor("x_345_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_15_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(195733568)))]; - tensor model_encoder_layers_15_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(195734656)))]; - tensor x_345_cast_fp16 = layer_norm(axes = x_345_axes_0, beta = model_encoder_layers_15_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_conv_weight_to_fp16, x = input_801_cast_fp16)[name = tensor("x_345_cast_fp16")]; + tensor model_encoder_layers_15_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(200583232)))]; + tensor model_encoder_layers_15_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(200584320)))]; + tensor x_345_cast_fp16 = layer_norm(axes = x_345_axes_0, beta = model_encoder_layers_15_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_conv_weight_to_fp16, x = input_801_cast_fp16)[name = tensor("x_345_cast_fp16")]; tensor input_803_perm_0 = const()[name = tensor("input_803_perm_0"), val = tensor([0, 2, 1])]; tensor input_805_pad_type_0 = const()[name = tensor("input_805_pad_type_0"), val = tensor("valid")]; tensor input_805_strides_0 = const()[name = tensor("input_805_strides_0"), val = tensor([1])]; tensor input_805_pad_0 = const()[name = tensor("input_805_pad_0"), val = tensor([0, 0])]; tensor input_805_dilations_0 = const()[name = tensor("input_805_dilations_0"), val = tensor([1])]; tensor input_805_groups_0 = const()[name = tensor("input_805_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_15_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(195735744)))]; - tensor model_encoder_layers_15_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(196784384)))]; - tensor input_803_cast_fp16 = transpose(perm = input_803_perm_0, x = x_345_cast_fp16)[name = tensor("transpose_201")]; - tensor input_805_cast_fp16 = conv(bias = model_encoder_layers_15_conv_pointwise_conv1_bias_to_fp16, dilations = input_805_dilations_0, groups = input_805_groups_0, pad = input_805_pad_0, pad_type = input_805_pad_type_0, strides = input_805_strides_0, weight = model_encoder_layers_15_conv_pointwise_conv1_weight_to_fp16, x = input_803_cast_fp16)[name = tensor("input_805_cast_fp16")]; + tensor model_encoder_layers_15_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(200585408)))]; + tensor model_encoder_layers_15_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201634048)))]; + tensor input_803_cast_fp16 = transpose(perm = input_803_perm_0, x = x_345_cast_fp16)[name = tensor("transpose_201")]; + tensor input_805_cast_fp16 = conv(bias = model_encoder_layers_15_conv_pointwise_conv1_bias_to_fp16, dilations = input_805_dilations_0, groups = input_805_groups_0, pad = input_805_pad_0, pad_type = input_805_pad_type_0, strides = input_805_strides_0, weight = model_encoder_layers_15_conv_pointwise_conv1_weight_to_fp16, x = input_803_cast_fp16)[name = tensor("input_805_cast_fp16")]; tensor x_347_split_num_splits_0 = const()[name = tensor("x_347_split_num_splits_0"), val = tensor(2)]; tensor x_347_split_axis_0 = const()[name = tensor("x_347_split_axis_0"), val = tensor(1)]; - tensor x_347_split_cast_fp16_0, tensor x_347_split_cast_fp16_1 = split(axis = x_347_split_axis_0, num_splits = x_347_split_num_splits_0, x = input_805_cast_fp16)[name = tensor("x_347_split_cast_fp16")]; - tensor x_347_split_1_sigmoid_cast_fp16 = sigmoid(x = x_347_split_cast_fp16_1)[name = tensor("x_347_split_1_sigmoid_cast_fp16")]; - tensor x_347_cast_fp16 = mul(x = x_347_split_cast_fp16_0, y = x_347_split_1_sigmoid_cast_fp16)[name = tensor("x_347_cast_fp16")]; - tensor input_807_cast_fp16 = select(a = var_21_to_fp16, b = x_347_cast_fp16, cond = var_245)[name = tensor("input_807_cast_fp16")]; + tensor x_347_split_cast_fp16_0, tensor x_347_split_cast_fp16_1 = split(axis = x_347_split_axis_0, num_splits = x_347_split_num_splits_0, x = input_805_cast_fp16)[name = tensor("x_347_split_cast_fp16")]; + tensor x_347_split_1_sigmoid_cast_fp16 = sigmoid(x = x_347_split_cast_fp16_1)[name = tensor("x_347_split_1_sigmoid_cast_fp16")]; + tensor x_347_cast_fp16 = mul(x = x_347_split_cast_fp16_0, y = x_347_split_1_sigmoid_cast_fp16)[name = tensor("x_347_cast_fp16")]; + tensor input_807_cast_fp16 = select(a = var_21_to_fp16, b = x_347_cast_fp16, cond = var_245)[name = tensor("input_807_cast_fp16")]; tensor input_809_pad_0 = const()[name = tensor("input_809_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_809_mode_0 = const()[name = tensor("input_809_mode_0"), val = tensor("constant")]; tensor const_165_to_fp16 = const()[name = tensor("const_165_to_fp16"), val = tensor(0x0p+0)]; - tensor input_809_cast_fp16 = pad(constant_val = const_165_to_fp16, mode = input_809_mode_0, pad = input_809_pad_0, x = input_807_cast_fp16)[name = tensor("input_809_cast_fp16")]; + tensor input_809_cast_fp16 = pad(constant_val = const_165_to_fp16, mode = input_809_mode_0, pad = input_809_pad_0, x = input_807_cast_fp16)[name = tensor("input_809_cast_fp16")]; tensor input_811_pad_type_0 = const()[name = tensor("input_811_pad_type_0"), val = tensor("valid")]; tensor input_811_groups_0 = const()[name = tensor("input_811_groups_0"), val = tensor(512)]; tensor input_811_strides_0 = const()[name = tensor("input_811_strides_0"), val = tensor([1])]; tensor input_811_pad_0 = const()[name = tensor("input_811_pad_0"), val = tensor([0, 0])]; tensor input_811_dilations_0 = const()[name = tensor("input_811_dilations_0"), val = tensor([1])]; - tensor const_372_to_fp16 = const()[name = tensor("const_372_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(196786496)))]; - tensor const_373_to_fp16 = const()[name = tensor("const_373_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(196795776)))]; - tensor input_813_cast_fp16 = conv(bias = const_373_to_fp16, dilations = input_811_dilations_0, groups = input_811_groups_0, pad = input_811_pad_0, pad_type = input_811_pad_type_0, strides = input_811_strides_0, weight = const_372_to_fp16, x = input_809_cast_fp16)[name = tensor("input_813_cast_fp16")]; - tensor input_815_cast_fp16 = silu(x = input_813_cast_fp16)[name = tensor("input_815_cast_fp16")]; + tensor const_372_to_fp16 = const()[name = tensor("const_372_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201636160)))]; + tensor const_373_to_fp16 = const()[name = tensor("const_373_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201645440)))]; + tensor input_813_cast_fp16 = conv(bias = const_373_to_fp16, dilations = input_811_dilations_0, groups = input_811_groups_0, pad = input_811_pad_0, pad_type = input_811_pad_type_0, strides = input_811_strides_0, weight = const_372_to_fp16, x = input_809_cast_fp16)[name = tensor("input_813_cast_fp16")]; + tensor input_815_cast_fp16 = silu(x = input_813_cast_fp16)[name = tensor("input_815_cast_fp16")]; tensor x_349_pad_type_0 = const()[name = tensor("x_349_pad_type_0"), val = tensor("valid")]; tensor x_349_strides_0 = const()[name = tensor("x_349_strides_0"), val = tensor([1])]; tensor x_349_pad_0 = const()[name = tensor("x_349_pad_0"), val = tensor([0, 0])]; tensor x_349_dilations_0 = const()[name = tensor("x_349_dilations_0"), val = tensor([1])]; tensor x_349_groups_0 = const()[name = tensor("x_349_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_15_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(196796864)))]; - tensor model_encoder_layers_15_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197321216)))]; - tensor x_349_cast_fp16 = conv(bias = model_encoder_layers_15_conv_pointwise_conv2_bias_to_fp16, dilations = x_349_dilations_0, groups = x_349_groups_0, pad = x_349_pad_0, pad_type = x_349_pad_type_0, strides = x_349_strides_0, weight = model_encoder_layers_15_conv_pointwise_conv2_weight_to_fp16, x = input_815_cast_fp16)[name = tensor("x_349_cast_fp16")]; + tensor model_encoder_layers_15_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201646528)))]; + tensor model_encoder_layers_15_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(202170880)))]; + tensor x_349_cast_fp16 = conv(bias = model_encoder_layers_15_conv_pointwise_conv2_bias_to_fp16, dilations = x_349_dilations_0, groups = x_349_groups_0, pad = x_349_pad_0, pad_type = x_349_pad_type_0, strides = x_349_strides_0, weight = model_encoder_layers_15_conv_pointwise_conv2_weight_to_fp16, x = input_815_cast_fp16)[name = tensor("x_349_cast_fp16")]; tensor input_817_perm_0 = const()[name = tensor("input_817_perm_0"), val = tensor([0, 2, 1])]; - tensor input_817_cast_fp16 = transpose(perm = input_817_perm_0, x = x_349_cast_fp16)[name = tensor("transpose_200")]; - tensor input_819_cast_fp16 = add(x = input_801_cast_fp16, y = input_817_cast_fp16)[name = tensor("input_819_cast_fp16")]; + tensor input_817_cast_fp16 = transpose(perm = input_817_perm_0, x = x_349_cast_fp16)[name = tensor("transpose_200")]; + tensor input_819_cast_fp16 = add(x = input_801_cast_fp16, y = input_817_cast_fp16)[name = tensor("input_819_cast_fp16")]; tensor input_821_axes_0 = const()[name = tensor("input_821_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_15_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197322304)))]; - tensor model_encoder_layers_15_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197323392)))]; - tensor input_821_cast_fp16 = layer_norm(axes = input_821_axes_0, beta = model_encoder_layers_15_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_feed_forward2_weight_to_fp16, x = input_819_cast_fp16)[name = tensor("input_821_cast_fp16")]; - tensor model_encoder_layers_15_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(197324480)))]; - tensor model_encoder_layers_15_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(199421696)))]; - tensor linear_142_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_15_feed_forward2_linear1_weight_to_fp16, x = input_821_cast_fp16)[name = tensor("linear_142_cast_fp16")]; - tensor input_825_cast_fp16 = silu(x = linear_142_cast_fp16)[name = tensor("input_825_cast_fp16")]; - tensor model_encoder_layers_15_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(199425856)))]; - tensor model_encoder_layers_15_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201523072)))]; - tensor linear_143_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_15_feed_forward2_linear2_weight_to_fp16, x = input_825_cast_fp16)[name = tensor("linear_143_cast_fp16")]; + tensor model_encoder_layers_15_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(202171968)))]; + tensor model_encoder_layers_15_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(202173056)))]; + tensor input_821_cast_fp16 = layer_norm(axes = input_821_axes_0, beta = model_encoder_layers_15_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_feed_forward2_weight_to_fp16, x = input_819_cast_fp16)[name = tensor("input_821_cast_fp16")]; + tensor model_encoder_layers_15_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(202174144)))]; + tensor model_encoder_layers_15_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(204271360)))]; + tensor linear_142_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_15_feed_forward2_linear1_weight_to_fp16, x = input_821_cast_fp16)[name = tensor("linear_142_cast_fp16")]; + tensor input_825_cast_fp16 = silu(x = linear_142_cast_fp16)[name = tensor("input_825_cast_fp16")]; + tensor model_encoder_layers_15_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(204275520)))]; + tensor model_encoder_layers_15_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206372736)))]; + tensor linear_143_cast_fp16 = linear(bias = model_encoder_layers_15_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_15_feed_forward2_linear2_weight_to_fp16, x = input_825_cast_fp16)[name = tensor("linear_143_cast_fp16")]; tensor var_2897_to_fp16 = const()[name = tensor("op_2897_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2898_cast_fp16 = mul(x = linear_143_cast_fp16, y = var_2897_to_fp16)[name = tensor("op_2898_cast_fp16")]; - tensor input_831_cast_fp16 = add(x = input_819_cast_fp16, y = var_2898_cast_fp16)[name = tensor("input_831_cast_fp16")]; + tensor var_2898_cast_fp16 = mul(x = linear_143_cast_fp16, y = var_2897_to_fp16)[name = tensor("op_2898_cast_fp16")]; + tensor input_831_cast_fp16 = add(x = input_819_cast_fp16, y = var_2898_cast_fp16)[name = tensor("input_831_cast_fp16")]; tensor input_833_axes_0 = const()[name = tensor("input_833_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_15_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201524160)))]; - tensor model_encoder_layers_15_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201525248)))]; - tensor input_833_cast_fp16 = layer_norm(axes = input_833_axes_0, beta = model_encoder_layers_15_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_out_weight_to_fp16, x = input_831_cast_fp16)[name = tensor("input_833_cast_fp16")]; + tensor model_encoder_layers_15_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206373824)))]; + tensor model_encoder_layers_15_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_15_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206374912)))]; + tensor input_833_cast_fp16 = layer_norm(axes = input_833_axes_0, beta = model_encoder_layers_15_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_15_norm_out_weight_to_fp16, x = input_831_cast_fp16)[name = tensor("input_833_cast_fp16")]; tensor input_835_axes_0 = const()[name = tensor("input_835_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_16_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201526336)))]; - tensor model_encoder_layers_16_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201527424)))]; - tensor input_835_cast_fp16 = layer_norm(axes = input_835_axes_0, beta = model_encoder_layers_16_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_feed_forward1_weight_to_fp16, x = input_833_cast_fp16)[name = tensor("input_835_cast_fp16")]; - tensor model_encoder_layers_16_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(201528512)))]; - tensor model_encoder_layers_16_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(203625728)))]; - tensor linear_144_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_16_feed_forward1_linear1_weight_to_fp16, x = input_835_cast_fp16)[name = tensor("linear_144_cast_fp16")]; - tensor input_839_cast_fp16 = silu(x = linear_144_cast_fp16)[name = tensor("input_839_cast_fp16")]; - tensor model_encoder_layers_16_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(203629888)))]; - tensor model_encoder_layers_16_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(205727104)))]; - tensor linear_145_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_16_feed_forward1_linear2_weight_to_fp16, x = input_839_cast_fp16)[name = tensor("linear_145_cast_fp16")]; + tensor model_encoder_layers_16_norm_feed_forward1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206376000)))]; + tensor model_encoder_layers_16_norm_feed_forward1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206377088)))]; + tensor input_835_cast_fp16 = layer_norm(axes = input_835_axes_0, beta = model_encoder_layers_16_norm_feed_forward1_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_feed_forward1_weight_to_fp16, x = input_833_cast_fp16)[name = tensor("input_835_cast_fp16")]; + tensor model_encoder_layers_16_feed_forward1_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206378176)))]; + tensor model_encoder_layers_16_feed_forward1_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(208475392)))]; + tensor linear_144_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward1_linear1_bias_to_fp16, weight = model_encoder_layers_16_feed_forward1_linear1_weight_to_fp16, x = input_835_cast_fp16)[name = tensor("linear_144_cast_fp16")]; + tensor input_839_cast_fp16 = silu(x = linear_144_cast_fp16)[name = tensor("input_839_cast_fp16")]; + tensor model_encoder_layers_16_feed_forward1_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(208479552)))]; + tensor model_encoder_layers_16_feed_forward1_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward1_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(210576768)))]; + tensor linear_145_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward1_linear2_bias_to_fp16, weight = model_encoder_layers_16_feed_forward1_linear2_weight_to_fp16, x = input_839_cast_fp16)[name = tensor("linear_145_cast_fp16")]; tensor var_2928_to_fp16 = const()[name = tensor("op_2928_to_fp16"), val = tensor(0x1p-1)]; - tensor var_2929_cast_fp16 = mul(x = linear_145_cast_fp16, y = var_2928_to_fp16)[name = tensor("op_2929_cast_fp16")]; - tensor input_845_cast_fp16 = add(x = input_833_cast_fp16, y = var_2929_cast_fp16)[name = tensor("input_845_cast_fp16")]; + tensor var_2929_cast_fp16 = mul(x = linear_145_cast_fp16, y = var_2928_to_fp16)[name = tensor("op_2929_cast_fp16")]; + tensor input_845_cast_fp16 = add(x = input_833_cast_fp16, y = var_2929_cast_fp16)[name = tensor("input_845_cast_fp16")]; tensor query_33_axes_0 = const()[name = tensor("query_33_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_16_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(205728192)))]; - tensor model_encoder_layers_16_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(205729280)))]; - tensor query_33_cast_fp16 = layer_norm(axes = query_33_axes_0, beta = model_encoder_layers_16_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_self_att_weight_to_fp16, x = input_845_cast_fp16)[name = tensor("query_33_cast_fp16")]; - tensor model_encoder_layers_16_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(205730368)))]; - tensor model_encoder_layers_16_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206254720)))]; - tensor linear_146_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_q_weight_to_fp16, x = query_33_cast_fp16)[name = tensor("linear_146_cast_fp16")]; + tensor model_encoder_layers_16_norm_self_att_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_self_att_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(210577856)))]; + tensor model_encoder_layers_16_norm_self_att_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_self_att_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(210578944)))]; + tensor query_33_cast_fp16 = layer_norm(axes = query_33_axes_0, beta = model_encoder_layers_16_norm_self_att_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_self_att_weight_to_fp16, x = input_845_cast_fp16)[name = tensor("query_33_cast_fp16")]; + tensor model_encoder_layers_16_self_attn_linear_q_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_q_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(210580032)))]; + tensor model_encoder_layers_16_self_attn_linear_q_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_q_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(211104384)))]; + tensor linear_146_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_q_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_q_weight_to_fp16, x = query_33_cast_fp16)[name = tensor("linear_146_cast_fp16")]; tensor var_2946 = const()[name = tensor("op_2946"), val = tensor([1, -1, 8, 64])]; - tensor q_97_cast_fp16 = reshape(shape = var_2946, x = linear_146_cast_fp16)[name = tensor("q_97_cast_fp16")]; - tensor model_encoder_layers_16_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206255808)))]; - tensor model_encoder_layers_16_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206780160)))]; - tensor linear_147_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_k_weight_to_fp16, x = query_33_cast_fp16)[name = tensor("linear_147_cast_fp16")]; + tensor q_97_cast_fp16 = reshape(shape = var_2946, x = linear_146_cast_fp16)[name = tensor("q_97_cast_fp16")]; + tensor model_encoder_layers_16_self_attn_linear_k_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_k_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(211105472)))]; + tensor model_encoder_layers_16_self_attn_linear_k_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_k_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(211629824)))]; + tensor linear_147_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_k_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_k_weight_to_fp16, x = query_33_cast_fp16)[name = tensor("linear_147_cast_fp16")]; tensor var_2951 = const()[name = tensor("op_2951"), val = tensor([1, -1, 8, 64])]; - tensor k_65_cast_fp16 = reshape(shape = var_2951, x = linear_147_cast_fp16)[name = tensor("k_65_cast_fp16")]; - tensor model_encoder_layers_16_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(206781248)))]; - tensor model_encoder_layers_16_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(207305600)))]; - tensor linear_148_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_v_weight_to_fp16, x = query_33_cast_fp16)[name = tensor("linear_148_cast_fp16")]; + tensor k_65_cast_fp16 = reshape(shape = var_2951, x = linear_147_cast_fp16)[name = tensor("k_65_cast_fp16")]; + tensor model_encoder_layers_16_self_attn_linear_v_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_v_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(211630912)))]; + tensor model_encoder_layers_16_self_attn_linear_v_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_v_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(212155264)))]; + tensor linear_148_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_v_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_v_weight_to_fp16, x = query_33_cast_fp16)[name = tensor("linear_148_cast_fp16")]; tensor var_2956 = const()[name = tensor("op_2956"), val = tensor([1, -1, 8, 64])]; - tensor v_cast_fp16 = reshape(shape = var_2956, x = linear_148_cast_fp16)[name = tensor("v_cast_fp16")]; + tensor v_cast_fp16 = reshape(shape = var_2956, x = linear_148_cast_fp16)[name = tensor("v_cast_fp16")]; tensor value_33_perm_0 = const()[name = tensor("value_33_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor model_encoder_layers_16_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(207306688)))]; - tensor var_2968_cast_fp16 = add(x = q_97_cast_fp16, y = model_encoder_layers_16_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2968_cast_fp16")]; - tensor model_encoder_layers_16_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(207307776)))]; - tensor var_2970_cast_fp16 = add(x = q_97_cast_fp16, y = model_encoder_layers_16_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2970_cast_fp16")]; + tensor model_encoder_layers_16_self_attn_pos_bias_u_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_pos_bias_u_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(212156352)))]; + tensor var_2968_cast_fp16 = add(x = q_97_cast_fp16, y = model_encoder_layers_16_self_attn_pos_bias_u_to_fp16)[name = tensor("op_2968_cast_fp16")]; + tensor model_encoder_layers_16_self_attn_pos_bias_v_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_pos_bias_v_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(212157440)))]; + tensor var_2970_cast_fp16 = add(x = q_97_cast_fp16, y = model_encoder_layers_16_self_attn_pos_bias_v_to_fp16)[name = tensor("op_2970_cast_fp16")]; tensor q_with_bias_v_perm_0 = const()[name = tensor("q_with_bias_v_perm_0"), val = tensor([0, 2, 1, 3])]; tensor x_357_transpose_x_0 = const()[name = tensor("x_357_transpose_x_0"), val = tensor(false)]; tensor x_357_transpose_y_0 = const()[name = tensor("x_357_transpose_y_0"), val = tensor(false)]; - tensor var_2972_to_fp16 = const()[name = tensor("op_2972_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(207308864)))]; - tensor q_with_bias_v_cast_fp16 = transpose(perm = q_with_bias_v_perm_0, x = var_2970_cast_fp16)[name = tensor("transpose_198")]; - tensor x_357_cast_fp16 = matmul(transpose_x = x_357_transpose_x_0, transpose_y = x_357_transpose_y_0, x = q_with_bias_v_cast_fp16, y = var_2972_to_fp16)[name = tensor("x_357_cast_fp16")]; + tensor var_2972_to_fp16 = const()[name = tensor("op_2972_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(212158528)))]; + tensor q_with_bias_v_cast_fp16 = transpose(perm = q_with_bias_v_perm_0, x = var_2970_cast_fp16)[name = tensor("transpose_198")]; + tensor x_357_cast_fp16 = matmul(transpose_x = x_357_transpose_x_0, transpose_y = x_357_transpose_y_0, x = q_with_bias_v_cast_fp16, y = var_2972_to_fp16)[name = tensor("x_357_cast_fp16")]; tensor x_359_pad_0 = const()[name = tensor("x_359_pad_0"), val = tensor([0, 0, 0, 0, 0, 0, 1, 0])]; tensor x_359_mode_0 = const()[name = tensor("x_359_mode_0"), val = tensor("constant")]; tensor const_172_to_fp16 = const()[name = tensor("const_172_to_fp16"), val = tensor(0x0p+0)]; - tensor x_359_cast_fp16 = pad(constant_val = const_172_to_fp16, mode = x_359_mode_0, pad = x_359_pad_0, x = x_357_cast_fp16)[name = tensor("x_359_cast_fp16")]; - tensor var_2980 = const()[name = tensor("op_2980"), val = tensor([1, 8, -1, 242])]; - tensor x_361_cast_fp16 = reshape(shape = var_2980, x = x_359_cast_fp16)[name = tensor("x_361_cast_fp16")]; + tensor x_359_cast_fp16 = pad(constant_val = const_172_to_fp16, mode = x_359_mode_0, pad = x_359_pad_0, x = x_357_cast_fp16)[name = tensor("x_359_cast_fp16")]; + tensor var_2980 = const()[name = tensor("op_2980"), val = tensor([1, 8, -1, 390])]; + tensor x_361_cast_fp16 = reshape(shape = var_2980, x = x_359_cast_fp16)[name = tensor("x_361_cast_fp16")]; tensor var_2984_begin_0 = const()[name = tensor("op_2984_begin_0"), val = tensor([0, 0, 1, 0])]; - tensor var_2984_end_0 = const()[name = tensor("op_2984_end_0"), val = tensor([1, 8, 484, 242])]; + tensor var_2984_end_0 = const()[name = tensor("op_2984_end_0"), val = tensor([1, 8, 780, 390])]; tensor var_2984_end_mask_0 = const()[name = tensor("op_2984_end_mask_0"), val = tensor([true, true, true, true])]; - tensor var_2984_cast_fp16 = slice_by_index(begin = var_2984_begin_0, end = var_2984_end_0, end_mask = var_2984_end_mask_0, x = x_361_cast_fp16)[name = tensor("op_2984_cast_fp16")]; - tensor var_2985 = const()[name = tensor("op_2985"), val = tensor([1, 8, 242, 483])]; - tensor matrix_bd_65_cast_fp16 = reshape(shape = var_2985, x = var_2984_cast_fp16)[name = tensor("matrix_bd_65_cast_fp16")]; + tensor var_2984_cast_fp16 = slice_by_index(begin = var_2984_begin_0, end = var_2984_end_0, end_mask = var_2984_end_mask_0, x = x_361_cast_fp16)[name = tensor("op_2984_cast_fp16")]; + tensor var_2985 = const()[name = tensor("op_2985"), val = tensor([1, 8, 390, 779])]; + tensor matrix_bd_65_cast_fp16 = reshape(shape = var_2985, x = var_2984_cast_fp16)[name = tensor("matrix_bd_65_cast_fp16")]; tensor matrix_ac_transpose_x_0 = const()[name = tensor("matrix_ac_transpose_x_0"), val = tensor(false)]; tensor matrix_ac_transpose_y_0 = const()[name = tensor("matrix_ac_transpose_y_0"), val = tensor(false)]; tensor transpose_83_perm_0 = const()[name = tensor("transpose_83_perm_0"), val = tensor([0, 2, -3, -1])]; tensor transpose_84_perm_0 = const()[name = tensor("transpose_84_perm_0"), val = tensor([0, 2, -1, -3])]; - tensor transpose_84 = transpose(perm = transpose_84_perm_0, x = k_65_cast_fp16)[name = tensor("transpose_196")]; - tensor transpose_83 = transpose(perm = transpose_83_perm_0, x = var_2968_cast_fp16)[name = tensor("transpose_197")]; - tensor matrix_ac_cast_fp16 = matmul(transpose_x = matrix_ac_transpose_x_0, transpose_y = matrix_ac_transpose_y_0, x = transpose_83, y = transpose_84)[name = tensor("matrix_ac_cast_fp16")]; + tensor transpose_84 = transpose(perm = transpose_84_perm_0, x = k_65_cast_fp16)[name = tensor("transpose_196")]; + tensor transpose_83 = transpose(perm = transpose_83_perm_0, x = var_2968_cast_fp16)[name = tensor("transpose_197")]; + tensor matrix_ac_cast_fp16 = matmul(transpose_x = matrix_ac_transpose_x_0, transpose_y = matrix_ac_transpose_y_0, x = transpose_83, y = transpose_84)[name = tensor("matrix_ac_cast_fp16")]; tensor matrix_bd_begin_0 = const()[name = tensor("matrix_bd_begin_0"), val = tensor([0, 0, 0, 0])]; - tensor matrix_bd_end_0 = const()[name = tensor("matrix_bd_end_0"), val = tensor([1, 8, 242, 242])]; + tensor matrix_bd_end_0 = const()[name = tensor("matrix_bd_end_0"), val = tensor([1, 8, 390, 390])]; tensor matrix_bd_end_mask_0 = const()[name = tensor("matrix_bd_end_mask_0"), val = tensor([true, true, true, false])]; - tensor matrix_bd_cast_fp16 = slice_by_index(begin = matrix_bd_begin_0, end = matrix_bd_end_0, end_mask = matrix_bd_end_mask_0, x = matrix_bd_65_cast_fp16)[name = tensor("matrix_bd_cast_fp16")]; - tensor var_2994_cast_fp16 = add(x = matrix_ac_cast_fp16, y = matrix_bd_cast_fp16)[name = tensor("op_2994_cast_fp16")]; + tensor matrix_bd_cast_fp16 = slice_by_index(begin = matrix_bd_begin_0, end = matrix_bd_end_0, end_mask = matrix_bd_end_mask_0, x = matrix_bd_65_cast_fp16)[name = tensor("matrix_bd_cast_fp16")]; + tensor var_2994_cast_fp16 = add(x = matrix_ac_cast_fp16, y = matrix_bd_cast_fp16)[name = tensor("op_2994_cast_fp16")]; tensor _inversed_scores_65_y_0_to_fp16 = const()[name = tensor("_inversed_scores_65_y_0_to_fp16"), val = tensor(0x1p-3)]; - tensor _inversed_scores_65_cast_fp16 = mul(x = var_2994_cast_fp16, y = _inversed_scores_65_y_0_to_fp16)[name = tensor("_inversed_scores_65_cast_fp16")]; - tensor scores_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_65_cast_fp16, cond = mask_3)[name = tensor("scores_cast_fp16")]; - tensor var_3000_cast_fp16 = softmax(axis = var_30, x = scores_cast_fp16)[name = tensor("op_3000_cast_fp16")]; - tensor input_847_cast_fp16 = select(a = var_21_to_fp16, b = var_3000_cast_fp16, cond = mask_3)[name = tensor("input_847_cast_fp16")]; + tensor _inversed_scores_65_cast_fp16 = mul(x = var_2994_cast_fp16, y = _inversed_scores_65_y_0_to_fp16)[name = tensor("_inversed_scores_65_cast_fp16")]; + tensor scores_cast_fp16 = select(a = var_22_to_fp16, b = _inversed_scores_65_cast_fp16, cond = mask_3)[name = tensor("scores_cast_fp16")]; + tensor var_3000_cast_fp16 = softmax(axis = var_30, x = scores_cast_fp16)[name = tensor("op_3000_cast_fp16")]; + tensor input_847_cast_fp16 = select(a = var_21_to_fp16, b = var_3000_cast_fp16, cond = mask_3)[name = tensor("input_847_cast_fp16")]; tensor x_363_transpose_x_0 = const()[name = tensor("x_363_transpose_x_0"), val = tensor(false)]; tensor x_363_transpose_y_0 = const()[name = tensor("x_363_transpose_y_0"), val = tensor(false)]; - tensor value_33_cast_fp16 = transpose(perm = value_33_perm_0, x = v_cast_fp16)[name = tensor("transpose_199")]; - tensor x_363_cast_fp16 = matmul(transpose_x = x_363_transpose_x_0, transpose_y = x_363_transpose_y_0, x = input_847_cast_fp16, y = value_33_cast_fp16)[name = tensor("x_363_cast_fp16")]; + tensor value_33_cast_fp16 = transpose(perm = value_33_perm_0, x = v_cast_fp16)[name = tensor("transpose_199")]; + tensor x_363_cast_fp16 = matmul(transpose_x = x_363_transpose_x_0, transpose_y = x_363_transpose_y_0, x = input_847_cast_fp16, y = value_33_cast_fp16)[name = tensor("x_363_cast_fp16")]; tensor var_3004_perm_0 = const()[name = tensor("op_3004_perm_0"), val = tensor([0, 2, 1, 3])]; tensor var_3005 = const()[name = tensor("op_3005"), val = tensor([1, -1, 512])]; - tensor var_3004_cast_fp16 = transpose(perm = var_3004_perm_0, x = x_363_cast_fp16)[name = tensor("transpose_195")]; - tensor input_849_cast_fp16 = reshape(shape = var_3005, x = var_3004_cast_fp16)[name = tensor("input_849_cast_fp16")]; - tensor model_encoder_layers_16_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(207803520)))]; - tensor model_encoder_layers_16_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(208327872)))]; - tensor linear_150_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_out_weight_to_fp16, x = input_849_cast_fp16)[name = tensor("linear_150_cast_fp16")]; - tensor input_853_cast_fp16 = add(x = input_845_cast_fp16, y = linear_150_cast_fp16)[name = tensor("input_853_cast_fp16")]; + tensor var_3004_cast_fp16 = transpose(perm = var_3004_perm_0, x = x_363_cast_fp16)[name = tensor("transpose_195")]; + tensor input_849_cast_fp16 = reshape(shape = var_3005, x = var_3004_cast_fp16)[name = tensor("input_849_cast_fp16")]; + tensor model_encoder_layers_16_self_attn_linear_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(212956288)))]; + tensor model_encoder_layers_16_self_attn_linear_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_self_attn_linear_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(213480640)))]; + tensor linear_150_cast_fp16 = linear(bias = model_encoder_layers_16_self_attn_linear_out_bias_to_fp16, weight = model_encoder_layers_16_self_attn_linear_out_weight_to_fp16, x = input_849_cast_fp16)[name = tensor("linear_150_cast_fp16")]; + tensor input_853_cast_fp16 = add(x = input_845_cast_fp16, y = linear_150_cast_fp16)[name = tensor("input_853_cast_fp16")]; tensor x_367_axes_0 = const()[name = tensor("x_367_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_16_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(208328960)))]; - tensor model_encoder_layers_16_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(208330048)))]; - tensor x_367_cast_fp16 = layer_norm(axes = x_367_axes_0, beta = model_encoder_layers_16_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_conv_weight_to_fp16, x = input_853_cast_fp16)[name = tensor("x_367_cast_fp16")]; + tensor model_encoder_layers_16_norm_conv_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_conv_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(213481728)))]; + tensor model_encoder_layers_16_norm_conv_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_conv_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(213482816)))]; + tensor x_367_cast_fp16 = layer_norm(axes = x_367_axes_0, beta = model_encoder_layers_16_norm_conv_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_conv_weight_to_fp16, x = input_853_cast_fp16)[name = tensor("x_367_cast_fp16")]; tensor input_855_perm_0 = const()[name = tensor("input_855_perm_0"), val = tensor([0, 2, 1])]; tensor input_857_pad_type_0 = const()[name = tensor("input_857_pad_type_0"), val = tensor("valid")]; tensor input_857_strides_0 = const()[name = tensor("input_857_strides_0"), val = tensor([1])]; tensor input_857_pad_0 = const()[name = tensor("input_857_pad_0"), val = tensor([0, 0])]; tensor input_857_dilations_0 = const()[name = tensor("input_857_dilations_0"), val = tensor([1])]; tensor input_857_groups_0 = const()[name = tensor("input_857_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_16_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(208331136)))]; - tensor model_encoder_layers_16_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209379776)))]; - tensor input_855_cast_fp16 = transpose(perm = input_855_perm_0, x = x_367_cast_fp16)[name = tensor("transpose_194")]; - tensor input_857_cast_fp16 = conv(bias = model_encoder_layers_16_conv_pointwise_conv1_bias_to_fp16, dilations = input_857_dilations_0, groups = input_857_groups_0, pad = input_857_pad_0, pad_type = input_857_pad_type_0, strides = input_857_strides_0, weight = model_encoder_layers_16_conv_pointwise_conv1_weight_to_fp16, x = input_855_cast_fp16)[name = tensor("input_857_cast_fp16")]; + tensor model_encoder_layers_16_conv_pointwise_conv1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(213483904)))]; + tensor model_encoder_layers_16_conv_pointwise_conv1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214532544)))]; + tensor input_855_cast_fp16 = transpose(perm = input_855_perm_0, x = x_367_cast_fp16)[name = tensor("transpose_194")]; + tensor input_857_cast_fp16 = conv(bias = model_encoder_layers_16_conv_pointwise_conv1_bias_to_fp16, dilations = input_857_dilations_0, groups = input_857_groups_0, pad = input_857_pad_0, pad_type = input_857_pad_type_0, strides = input_857_strides_0, weight = model_encoder_layers_16_conv_pointwise_conv1_weight_to_fp16, x = input_855_cast_fp16)[name = tensor("input_857_cast_fp16")]; tensor x_369_split_num_splits_0 = const()[name = tensor("x_369_split_num_splits_0"), val = tensor(2)]; tensor x_369_split_axis_0 = const()[name = tensor("x_369_split_axis_0"), val = tensor(1)]; - tensor x_369_split_cast_fp16_0, tensor x_369_split_cast_fp16_1 = split(axis = x_369_split_axis_0, num_splits = x_369_split_num_splits_0, x = input_857_cast_fp16)[name = tensor("x_369_split_cast_fp16")]; - tensor x_369_split_1_sigmoid_cast_fp16 = sigmoid(x = x_369_split_cast_fp16_1)[name = tensor("x_369_split_1_sigmoid_cast_fp16")]; - tensor x_369_cast_fp16 = mul(x = x_369_split_cast_fp16_0, y = x_369_split_1_sigmoid_cast_fp16)[name = tensor("x_369_cast_fp16")]; - tensor input_859_cast_fp16 = select(a = var_21_to_fp16, b = x_369_cast_fp16, cond = var_245)[name = tensor("input_859_cast_fp16")]; + tensor x_369_split_cast_fp16_0, tensor x_369_split_cast_fp16_1 = split(axis = x_369_split_axis_0, num_splits = x_369_split_num_splits_0, x = input_857_cast_fp16)[name = tensor("x_369_split_cast_fp16")]; + tensor x_369_split_1_sigmoid_cast_fp16 = sigmoid(x = x_369_split_cast_fp16_1)[name = tensor("x_369_split_1_sigmoid_cast_fp16")]; + tensor x_369_cast_fp16 = mul(x = x_369_split_cast_fp16_0, y = x_369_split_1_sigmoid_cast_fp16)[name = tensor("x_369_cast_fp16")]; + tensor input_859_cast_fp16 = select(a = var_21_to_fp16, b = x_369_cast_fp16, cond = var_245)[name = tensor("input_859_cast_fp16")]; tensor input_861_pad_0 = const()[name = tensor("input_861_pad_0"), val = tensor([0, 0, 0, 0, 4, 4])]; tensor input_861_mode_0 = const()[name = tensor("input_861_mode_0"), val = tensor("constant")]; tensor const_175_to_fp16 = const()[name = tensor("const_175_to_fp16"), val = tensor(0x0p+0)]; - tensor input_861_cast_fp16 = pad(constant_val = const_175_to_fp16, mode = input_861_mode_0, pad = input_861_pad_0, x = input_859_cast_fp16)[name = tensor("input_861_cast_fp16")]; + tensor input_861_cast_fp16 = pad(constant_val = const_175_to_fp16, mode = input_861_mode_0, pad = input_861_pad_0, x = input_859_cast_fp16)[name = tensor("input_861_cast_fp16")]; tensor input_863_pad_type_0 = const()[name = tensor("input_863_pad_type_0"), val = tensor("valid")]; tensor input_863_groups_0 = const()[name = tensor("input_863_groups_0"), val = tensor(512)]; tensor input_863_strides_0 = const()[name = tensor("input_863_strides_0"), val = tensor([1])]; tensor input_863_pad_0 = const()[name = tensor("input_863_pad_0"), val = tensor([0, 0])]; tensor input_863_dilations_0 = const()[name = tensor("input_863_dilations_0"), val = tensor([1])]; - tensor const_374_to_fp16 = const()[name = tensor("const_374_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209381888)))]; - tensor const_375_to_fp16 = const()[name = tensor("const_375_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209391168)))]; - tensor input_865_cast_fp16 = conv(bias = const_375_to_fp16, dilations = input_863_dilations_0, groups = input_863_groups_0, pad = input_863_pad_0, pad_type = input_863_pad_type_0, strides = input_863_strides_0, weight = const_374_to_fp16, x = input_861_cast_fp16)[name = tensor("input_865_cast_fp16")]; - tensor input_867_cast_fp16 = silu(x = input_865_cast_fp16)[name = tensor("input_867_cast_fp16")]; + tensor const_374_to_fp16 = const()[name = tensor("const_374_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214534656)))]; + tensor const_375_to_fp16 = const()[name = tensor("const_375_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214543936)))]; + tensor input_865_cast_fp16 = conv(bias = const_375_to_fp16, dilations = input_863_dilations_0, groups = input_863_groups_0, pad = input_863_pad_0, pad_type = input_863_pad_type_0, strides = input_863_strides_0, weight = const_374_to_fp16, x = input_861_cast_fp16)[name = tensor("input_865_cast_fp16")]; + tensor input_867_cast_fp16 = silu(x = input_865_cast_fp16)[name = tensor("input_867_cast_fp16")]; tensor x_371_pad_type_0 = const()[name = tensor("x_371_pad_type_0"), val = tensor("valid")]; tensor x_371_strides_0 = const()[name = tensor("x_371_strides_0"), val = tensor([1])]; tensor x_371_pad_0 = const()[name = tensor("x_371_pad_0"), val = tensor([0, 0])]; tensor x_371_dilations_0 = const()[name = tensor("x_371_dilations_0"), val = tensor([1])]; tensor x_371_groups_0 = const()[name = tensor("x_371_groups_0"), val = tensor(1)]; - tensor model_encoder_layers_16_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209392256)))]; - tensor model_encoder_layers_16_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209916608)))]; - tensor x_371_cast_fp16 = conv(bias = model_encoder_layers_16_conv_pointwise_conv2_bias_to_fp16, dilations = x_371_dilations_0, groups = x_371_groups_0, pad = x_371_pad_0, pad_type = x_371_pad_type_0, strides = x_371_strides_0, weight = model_encoder_layers_16_conv_pointwise_conv2_weight_to_fp16, x = input_867_cast_fp16)[name = tensor("x_371_cast_fp16")]; + tensor model_encoder_layers_16_conv_pointwise_conv2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214545024)))]; + tensor model_encoder_layers_16_conv_pointwise_conv2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_conv_pointwise_conv2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215069376)))]; + tensor x_371_cast_fp16 = conv(bias = model_encoder_layers_16_conv_pointwise_conv2_bias_to_fp16, dilations = x_371_dilations_0, groups = x_371_groups_0, pad = x_371_pad_0, pad_type = x_371_pad_type_0, strides = x_371_strides_0, weight = model_encoder_layers_16_conv_pointwise_conv2_weight_to_fp16, x = input_867_cast_fp16)[name = tensor("x_371_cast_fp16")]; tensor input_869_perm_0 = const()[name = tensor("input_869_perm_0"), val = tensor([0, 2, 1])]; - tensor input_869_cast_fp16 = transpose(perm = input_869_perm_0, x = x_371_cast_fp16)[name = tensor("transpose_193")]; - tensor input_871_cast_fp16 = add(x = input_853_cast_fp16, y = input_869_cast_fp16)[name = tensor("input_871_cast_fp16")]; + tensor input_869_cast_fp16 = transpose(perm = input_869_perm_0, x = x_371_cast_fp16)[name = tensor("transpose_193")]; + tensor input_871_cast_fp16 = add(x = input_853_cast_fp16, y = input_869_cast_fp16)[name = tensor("input_871_cast_fp16")]; tensor input_873_axes_0 = const()[name = tensor("input_873_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_16_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209917696)))]; - tensor model_encoder_layers_16_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209918784)))]; - tensor input_873_cast_fp16 = layer_norm(axes = input_873_axes_0, beta = model_encoder_layers_16_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_feed_forward2_weight_to_fp16, x = input_871_cast_fp16)[name = tensor("input_873_cast_fp16")]; - tensor model_encoder_layers_16_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(209919872)))]; - tensor model_encoder_layers_16_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(212017088)))]; - tensor linear_151_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_16_feed_forward2_linear1_weight_to_fp16, x = input_873_cast_fp16)[name = tensor("linear_151_cast_fp16")]; - tensor input_877_cast_fp16 = silu(x = linear_151_cast_fp16)[name = tensor("input_877_cast_fp16")]; - tensor model_encoder_layers_16_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(212021248)))]; - tensor model_encoder_layers_16_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214118464)))]; - tensor linear_152_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_16_feed_forward2_linear2_weight_to_fp16, x = input_877_cast_fp16)[name = tensor("linear_152_cast_fp16")]; + tensor model_encoder_layers_16_norm_feed_forward2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215070464)))]; + tensor model_encoder_layers_16_norm_feed_forward2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_feed_forward2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215071552)))]; + tensor input_873_cast_fp16 = layer_norm(axes = input_873_axes_0, beta = model_encoder_layers_16_norm_feed_forward2_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_feed_forward2_weight_to_fp16, x = input_871_cast_fp16)[name = tensor("input_873_cast_fp16")]; + tensor model_encoder_layers_16_feed_forward2_linear1_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215072640)))]; + tensor model_encoder_layers_16_feed_forward2_linear1_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217169856)))]; + tensor linear_151_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward2_linear1_bias_to_fp16, weight = model_encoder_layers_16_feed_forward2_linear1_weight_to_fp16, x = input_873_cast_fp16)[name = tensor("linear_151_cast_fp16")]; + tensor input_877_cast_fp16 = silu(x = linear_151_cast_fp16)[name = tensor("input_877_cast_fp16")]; + tensor model_encoder_layers_16_feed_forward2_linear2_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217174016)))]; + tensor model_encoder_layers_16_feed_forward2_linear2_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_feed_forward2_linear2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219271232)))]; + tensor linear_152_cast_fp16 = linear(bias = model_encoder_layers_16_feed_forward2_linear2_bias_to_fp16, weight = model_encoder_layers_16_feed_forward2_linear2_weight_to_fp16, x = input_877_cast_fp16)[name = tensor("linear_152_cast_fp16")]; tensor var_3071_to_fp16 = const()[name = tensor("op_3071_to_fp16"), val = tensor(0x1p-1)]; - tensor var_3072_cast_fp16 = mul(x = linear_152_cast_fp16, y = var_3071_to_fp16)[name = tensor("op_3072_cast_fp16")]; - tensor input_883_cast_fp16 = add(x = input_871_cast_fp16, y = var_3072_cast_fp16)[name = tensor("input_883_cast_fp16")]; + tensor var_3072_cast_fp16 = mul(x = linear_152_cast_fp16, y = var_3071_to_fp16)[name = tensor("op_3072_cast_fp16")]; + tensor input_883_cast_fp16 = add(x = input_871_cast_fp16, y = var_3072_cast_fp16)[name = tensor("input_883_cast_fp16")]; tensor audio_signal_axes_0 = const()[name = tensor("audio_signal_axes_0"), val = tensor([-1])]; - tensor model_encoder_layers_16_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214119552)))]; - tensor model_encoder_layers_16_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214120640)))]; - tensor audio_signal_cast_fp16 = layer_norm(axes = audio_signal_axes_0, beta = model_encoder_layers_16_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_out_weight_to_fp16, x = input_883_cast_fp16)[name = tensor("audio_signal_cast_fp16")]; - tensor model_sortformer_modules_encoder_proj_weight_to_fp16 = const()[name = tensor("model_sortformer_modules_encoder_proj_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214121728)))]; - tensor model_sortformer_modules_encoder_proj_bias_to_fp16 = const()[name = tensor("model_sortformer_modules_encoder_proj_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214318400)))]; - tensor linear_153_cast_fp16 = linear(bias = model_sortformer_modules_encoder_proj_bias_to_fp16, weight = model_sortformer_modules_encoder_proj_weight_to_fp16, x = audio_signal_cast_fp16)[name = tensor("linear_153_cast_fp16")]; + tensor model_encoder_layers_16_norm_out_weight_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219272320)))]; + tensor model_encoder_layers_16_norm_out_bias_to_fp16 = const()[name = tensor("model_encoder_layers_16_norm_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219273408)))]; + tensor audio_signal_cast_fp16 = layer_norm(axes = audio_signal_axes_0, beta = model_encoder_layers_16_norm_out_bias_to_fp16, epsilon = var_19_to_fp16, gamma = model_encoder_layers_16_norm_out_weight_to_fp16, x = input_883_cast_fp16)[name = tensor("audio_signal_cast_fp16")]; + tensor nest_encoder_lengths = identity(x = pre_encoder_lengths)[name = tensor("identity_0")]; + tensor model_sortformer_modules_encoder_proj_weight_to_fp16 = const()[name = tensor("model_sortformer_modules_encoder_proj_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219274496)))]; + tensor model_sortformer_modules_encoder_proj_bias_to_fp16 = const()[name = tensor("model_sortformer_modules_encoder_proj_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219471168)))]; + tensor linear_153_cast_fp16 = linear(bias = model_sortformer_modules_encoder_proj_bias_to_fp16, weight = model_sortformer_modules_encoder_proj_weight_to_fp16, x = audio_signal_cast_fp16)[name = tensor("linear_153_cast_fp16")]; + tensor linear_153_cast_fp16_to_fp32_dtype_0 = const()[name = tensor("linear_153_cast_fp16_to_fp32_dtype_0"), val = tensor("fp32")]; tensor var_3107_axes_0 = const()[name = tensor("op_3107_axes_0"), val = tensor([1])]; - tensor var_3107 = expand_dims(axes = var_3107_axes_0, x = pre_encoder_lengths)[name = tensor("op_3107")]; - tensor input_mask_1 = less(x = expand_dims_0, y = var_3107)[name = tensor("input_mask_1")]; + tensor var_3107 = expand_dims(axes = var_3107_axes_0, x = nest_encoder_lengths)[name = tensor("op_3107")]; + tensor input_mask_1 = less(x = expand_dims_0, y = var_3107)[name = tensor("input_mask_1")]; tensor var_3111 = const()[name = tensor("op_3111"), val = tensor(-1)]; tensor attn_mask_axes_0 = const()[name = tensor("attn_mask_axes_0"), val = tensor([1])]; - tensor attn_mask = expand_dims(axes = attn_mask_axes_0, x = input_mask_1)[name = tensor("attn_mask")]; + tensor attn_mask = expand_dims(axes = attn_mask_axes_0, x = input_mask_1)[name = tensor("attn_mask")]; tensor var_3121_promoted_to_fp16 = const()[name = tensor("op_3121_promoted_to_fp16"), val = tensor(0x1p+0)]; tensor var_3163_to_fp16_dtype_0 = const()[name = tensor("op_3163_to_fp16_dtype_0"), val = tensor("fp16")]; - tensor attn_mask_to_fp16 = cast(dtype = var_3163_to_fp16_dtype_0, x = attn_mask)[name = tensor("cast_303")]; - tensor var_3164_cast_fp16 = sub(x = var_3121_promoted_to_fp16, y = attn_mask_to_fp16)[name = tensor("op_3164_cast_fp16")]; + tensor attn_mask_to_fp16 = cast(dtype = var_3163_to_fp16_dtype_0, x = attn_mask)[name = tensor("cast_303")]; + tensor var_3164_cast_fp16 = sub(x = var_3121_promoted_to_fp16, y = attn_mask_to_fp16)[name = tensor("op_3164_cast_fp16")]; tensor var_3165_to_fp16 = const()[name = tensor("op_3165_to_fp16"), val = tensor(-0x1.388p+13)]; - tensor attention_mask_1_cast_fp16 = mul(x = var_3164_cast_fp16, y = var_3165_to_fp16)[name = tensor("attention_mask_1_cast_fp16")]; + tensor attention_mask_1_cast_fp16 = mul(x = var_3164_cast_fp16, y = var_3165_to_fp16)[name = tensor("attention_mask_1_cast_fp16")]; tensor attention_mask_3_axes_0 = const()[name = tensor("attention_mask_3_axes_0"), val = tensor([1])]; - tensor attention_mask_3_cast_fp16 = expand_dims(axes = attention_mask_3_axes_0, x = attention_mask_1_cast_fp16)[name = tensor("attention_mask_3_cast_fp16")]; - tensor model_transformer_encoder_layers_0_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214318848)))]; - tensor model_transformer_encoder_layers_0_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214392640)))]; - tensor linear_154_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_query_net_weight_to_fp16, x = linear_153_cast_fp16)[name = tensor("linear_154_cast_fp16")]; - tensor model_transformer_encoder_layers_0_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214393088)))]; - tensor model_transformer_encoder_layers_0_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214466880)))]; - tensor linear_155_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_key_net_weight_to_fp16, x = linear_153_cast_fp16)[name = tensor("linear_155_cast_fp16")]; - tensor model_transformer_encoder_layers_0_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214467328)))]; - tensor model_transformer_encoder_layers_0_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214541120)))]; - tensor linear_156_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_value_net_weight_to_fp16, x = linear_153_cast_fp16)[name = tensor("linear_156_cast_fp16")]; - tensor var_3187 = const()[name = tensor("op_3187"), val = tensor([1, 242, 8, 24])]; - tensor x_379_cast_fp16 = reshape(shape = var_3187, x = linear_154_cast_fp16)[name = tensor("x_379_cast_fp16")]; + tensor attention_mask_3_cast_fp16 = expand_dims(axes = attention_mask_3_axes_0, x = attention_mask_1_cast_fp16)[name = tensor("attention_mask_3_cast_fp16")]; + tensor model_transformer_encoder_layers_0_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219471616)))]; + tensor model_transformer_encoder_layers_0_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219545408)))]; + tensor linear_154_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_query_net_weight_to_fp16, x = linear_153_cast_fp16)[name = tensor("linear_154_cast_fp16")]; + tensor model_transformer_encoder_layers_0_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219545856)))]; + tensor model_transformer_encoder_layers_0_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219619648)))]; + tensor linear_155_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_key_net_weight_to_fp16, x = linear_153_cast_fp16)[name = tensor("linear_155_cast_fp16")]; + tensor model_transformer_encoder_layers_0_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219620096)))]; + tensor model_transformer_encoder_layers_0_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219693888)))]; + tensor linear_156_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_value_net_weight_to_fp16, x = linear_153_cast_fp16)[name = tensor("linear_156_cast_fp16")]; + tensor var_3187 = const()[name = tensor("op_3187"), val = tensor([1, 390, 8, 24])]; + tensor x_379_cast_fp16 = reshape(shape = var_3187, x = linear_154_cast_fp16)[name = tensor("x_379_cast_fp16")]; tensor _inversed_query_35_y_0_to_fp16 = const()[name = tensor("_inversed_query_35_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_35_cast_fp16 = mul(x = x_379_cast_fp16, y = _inversed_query_35_y_0_to_fp16)[name = tensor("_inversed_query_35_cast_fp16")]; - tensor var_3195 = const()[name = tensor("op_3195"), val = tensor([1, 242, 8, 24])]; - tensor x_383_cast_fp16 = reshape(shape = var_3195, x = linear_155_cast_fp16)[name = tensor("x_383_cast_fp16")]; + tensor _inversed_query_35_cast_fp16 = mul(x = x_379_cast_fp16, y = _inversed_query_35_y_0_to_fp16)[name = tensor("_inversed_query_35_cast_fp16")]; + tensor var_3195 = const()[name = tensor("op_3195"), val = tensor([1, 390, 8, 24])]; + tensor x_383_cast_fp16 = reshape(shape = var_3195, x = linear_155_cast_fp16)[name = tensor("x_383_cast_fp16")]; tensor _inversed_key_1_y_0_to_fp16 = const()[name = tensor("_inversed_key_1_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_1_cast_fp16 = mul(x = x_383_cast_fp16, y = _inversed_key_1_y_0_to_fp16)[name = tensor("_inversed_key_1_cast_fp16")]; - tensor var_3203 = const()[name = tensor("op_3203"), val = tensor([1, 242, 8, 24])]; - tensor x_387_cast_fp16 = reshape(shape = var_3203, x = linear_156_cast_fp16)[name = tensor("x_387_cast_fp16")]; + tensor _inversed_key_1_cast_fp16 = mul(x = x_383_cast_fp16, y = _inversed_key_1_y_0_to_fp16)[name = tensor("_inversed_key_1_cast_fp16")]; + tensor var_3203 = const()[name = tensor("op_3203"), val = tensor([1, 390, 8, 24])]; + tensor x_387_cast_fp16 = reshape(shape = var_3203, x = linear_156_cast_fp16)[name = tensor("x_387_cast_fp16")]; tensor var_3205 = const()[name = tensor("op_3205"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_1_transpose_x_1 = const()[name = tensor("attention_scores_1_transpose_x_1"), val = tensor(false)]; tensor attention_scores_1_transpose_y_1 = const()[name = tensor("attention_scores_1_transpose_y_1"), val = tensor(true)]; tensor transpose_85_perm_0 = const()[name = tensor("transpose_85_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_86_perm_0 = const()[name = tensor("transpose_86_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_86 = transpose(perm = transpose_86_perm_0, x = _inversed_key_1_cast_fp16)[name = tensor("transpose_190")]; - tensor transpose_85 = transpose(perm = transpose_85_perm_0, x = _inversed_query_35_cast_fp16)[name = tensor("transpose_191")]; - tensor attention_scores_1_cast_fp16 = matmul(transpose_x = attention_scores_1_transpose_x_1, transpose_y = attention_scores_1_transpose_y_1, x = transpose_85, y = transpose_86)[name = tensor("attention_scores_1_cast_fp16")]; - tensor attention_scores_3_cast_fp16 = add(x = attention_scores_1_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_3_cast_fp16")]; - tensor input_887_cast_fp16 = softmax(axis = var_3111, x = attention_scores_3_cast_fp16)[name = tensor("input_887_cast_fp16")]; + tensor transpose_86 = transpose(perm = transpose_86_perm_0, x = _inversed_key_1_cast_fp16)[name = tensor("transpose_190")]; + tensor transpose_85 = transpose(perm = transpose_85_perm_0, x = _inversed_query_35_cast_fp16)[name = tensor("transpose_191")]; + tensor attention_scores_1_cast_fp16 = matmul(transpose_x = attention_scores_1_transpose_x_1, transpose_y = attention_scores_1_transpose_y_1, x = transpose_85, y = transpose_86)[name = tensor("attention_scores_1_cast_fp16")]; + tensor attention_scores_3_cast_fp16 = add(x = attention_scores_1_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_3_cast_fp16")]; + tensor input_887_cast_fp16 = softmax(axis = var_3111, x = attention_scores_3_cast_fp16)[name = tensor("input_887_cast_fp16")]; tensor context_1_transpose_x_0 = const()[name = tensor("context_1_transpose_x_0"), val = tensor(false)]; tensor context_1_transpose_y_0 = const()[name = tensor("context_1_transpose_y_0"), val = tensor(false)]; - tensor value_35_cast_fp16 = transpose(perm = var_3205, x = x_387_cast_fp16)[name = tensor("transpose_192")]; - tensor context_1_cast_fp16 = matmul(transpose_x = context_1_transpose_x_0, transpose_y = context_1_transpose_y_0, x = input_887_cast_fp16, y = value_35_cast_fp16)[name = tensor("context_1_cast_fp16")]; + tensor value_35_cast_fp16 = transpose(perm = var_3205, x = x_387_cast_fp16)[name = tensor("transpose_192")]; + tensor context_1_cast_fp16 = matmul(transpose_x = context_1_transpose_x_0, transpose_y = context_1_transpose_y_0, x = input_887_cast_fp16, y = value_35_cast_fp16)[name = tensor("context_1_cast_fp16")]; tensor var_3219 = const()[name = tensor("op_3219"), val = tensor([0, 2, 1, 3])]; - tensor var_3224 = const()[name = tensor("op_3224"), val = tensor([1, 242, 192])]; - tensor var_3220_cast_fp16 = transpose(perm = var_3219, x = context_1_cast_fp16)[name = tensor("transpose_189")]; - tensor input_889_cast_fp16 = reshape(shape = var_3224, x = var_3220_cast_fp16)[name = tensor("input_889_cast_fp16")]; - tensor model_transformer_encoder_layers_0_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214541568)))]; - tensor model_transformer_encoder_layers_0_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214615360)))]; - tensor linear_157_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_out_projection_weight_to_fp16, x = input_889_cast_fp16)[name = tensor("linear_157_cast_fp16")]; - tensor input_893_cast_fp16 = add(x = linear_157_cast_fp16, y = linear_153_cast_fp16)[name = tensor("input_893_cast_fp16")]; + tensor var_3224 = const()[name = tensor("op_3224"), val = tensor([1, 390, 192])]; + tensor var_3220_cast_fp16 = transpose(perm = var_3219, x = context_1_cast_fp16)[name = tensor("transpose_189")]; + tensor input_889_cast_fp16 = reshape(shape = var_3224, x = var_3220_cast_fp16)[name = tensor("input_889_cast_fp16")]; + tensor model_transformer_encoder_layers_0_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219694336)))]; + tensor model_transformer_encoder_layers_0_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219768128)))]; + tensor linear_157_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_0_first_sub_layer_out_projection_weight_to_fp16, x = input_889_cast_fp16)[name = tensor("linear_157_cast_fp16")]; + tensor input_893_cast_fp16 = add(x = linear_157_cast_fp16, y = linear_153_cast_fp16)[name = tensor("input_893_cast_fp16")]; tensor input_895_axes_0 = const()[name = tensor("input_895_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_0_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214615808)))]; - tensor model_transformer_encoder_layers_0_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214616256)))]; + tensor model_transformer_encoder_layers_0_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219768576)))]; + tensor model_transformer_encoder_layers_0_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219769024)))]; tensor var_3118_to_fp16 = const()[name = tensor("op_3118_to_fp16"), val = tensor(0x1.5p-17)]; - tensor input_895_cast_fp16 = layer_norm(axes = input_895_axes_0, beta = model_transformer_encoder_layers_0_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_0_layer_norm_1_weight_to_fp16, x = input_893_cast_fp16)[name = tensor("input_895_cast_fp16")]; - tensor model_transformer_encoder_layers_0_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214616704)))]; - tensor model_transformer_encoder_layers_0_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214911680)))]; - tensor linear_158_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_0_second_sub_layer_dense_in_weight_to_fp16, x = input_895_cast_fp16)[name = tensor("linear_158_cast_fp16")]; - tensor input_897_cast_fp16 = relu(x = linear_158_cast_fp16)[name = tensor("input_897_cast_fp16")]; - tensor model_transformer_encoder_layers_0_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(214913280)))]; - tensor model_transformer_encoder_layers_0_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215208256)))]; - tensor linear_159_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_0_second_sub_layer_dense_out_weight_to_fp16, x = input_897_cast_fp16)[name = tensor("linear_159_cast_fp16")]; - tensor input_901_cast_fp16 = add(x = linear_159_cast_fp16, y = input_895_cast_fp16)[name = tensor("input_901_cast_fp16")]; + tensor input_895_cast_fp16 = layer_norm(axes = input_895_axes_0, beta = model_transformer_encoder_layers_0_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_0_layer_norm_1_weight_to_fp16, x = input_893_cast_fp16)[name = tensor("input_895_cast_fp16")]; + tensor model_transformer_encoder_layers_0_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219769472)))]; + tensor model_transformer_encoder_layers_0_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220064448)))]; + tensor linear_158_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_0_second_sub_layer_dense_in_weight_to_fp16, x = input_895_cast_fp16)[name = tensor("linear_158_cast_fp16")]; + tensor input_897_cast_fp16 = relu(x = linear_158_cast_fp16)[name = tensor("input_897_cast_fp16")]; + tensor model_transformer_encoder_layers_0_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220066048)))]; + tensor model_transformer_encoder_layers_0_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220361024)))]; + tensor linear_159_cast_fp16 = linear(bias = model_transformer_encoder_layers_0_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_0_second_sub_layer_dense_out_weight_to_fp16, x = input_897_cast_fp16)[name = tensor("linear_159_cast_fp16")]; + tensor input_901_cast_fp16 = add(x = linear_159_cast_fp16, y = input_895_cast_fp16)[name = tensor("input_901_cast_fp16")]; tensor input_903_axes_0 = const()[name = tensor("input_903_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_0_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215208704)))]; - tensor model_transformer_encoder_layers_0_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215209152)))]; - tensor input_903_cast_fp16 = layer_norm(axes = input_903_axes_0, beta = model_transformer_encoder_layers_0_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_0_layer_norm_2_weight_to_fp16, x = input_901_cast_fp16)[name = tensor("input_903_cast_fp16")]; - tensor model_transformer_encoder_layers_1_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215209600)))]; - tensor model_transformer_encoder_layers_1_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215283392)))]; - tensor linear_160_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_query_net_weight_to_fp16, x = input_903_cast_fp16)[name = tensor("linear_160_cast_fp16")]; - tensor model_transformer_encoder_layers_1_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215283840)))]; - tensor model_transformer_encoder_layers_1_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215357632)))]; - tensor linear_161_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_key_net_weight_to_fp16, x = input_903_cast_fp16)[name = tensor("linear_161_cast_fp16")]; - tensor model_transformer_encoder_layers_1_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215358080)))]; - tensor model_transformer_encoder_layers_1_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215431872)))]; - tensor linear_162_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_value_net_weight_to_fp16, x = input_903_cast_fp16)[name = tensor("linear_162_cast_fp16")]; - tensor var_3275 = const()[name = tensor("op_3275"), val = tensor([1, 242, 8, 24])]; - tensor x_391_cast_fp16 = reshape(shape = var_3275, x = linear_160_cast_fp16)[name = tensor("x_391_cast_fp16")]; + tensor model_transformer_encoder_layers_0_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220361472)))]; + tensor model_transformer_encoder_layers_0_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_0_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220361920)))]; + tensor input_903_cast_fp16 = layer_norm(axes = input_903_axes_0, beta = model_transformer_encoder_layers_0_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_0_layer_norm_2_weight_to_fp16, x = input_901_cast_fp16)[name = tensor("input_903_cast_fp16")]; + tensor model_transformer_encoder_layers_1_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220362368)))]; + tensor model_transformer_encoder_layers_1_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220436160)))]; + tensor linear_160_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_query_net_weight_to_fp16, x = input_903_cast_fp16)[name = tensor("linear_160_cast_fp16")]; + tensor model_transformer_encoder_layers_1_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220436608)))]; + tensor model_transformer_encoder_layers_1_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220510400)))]; + tensor linear_161_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_key_net_weight_to_fp16, x = input_903_cast_fp16)[name = tensor("linear_161_cast_fp16")]; + tensor model_transformer_encoder_layers_1_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220510848)))]; + tensor model_transformer_encoder_layers_1_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220584640)))]; + tensor linear_162_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_value_net_weight_to_fp16, x = input_903_cast_fp16)[name = tensor("linear_162_cast_fp16")]; + tensor var_3275 = const()[name = tensor("op_3275"), val = tensor([1, 390, 8, 24])]; + tensor x_391_cast_fp16 = reshape(shape = var_3275, x = linear_160_cast_fp16)[name = tensor("x_391_cast_fp16")]; tensor _inversed_query_37_y_0_to_fp16 = const()[name = tensor("_inversed_query_37_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_37_cast_fp16 = mul(x = x_391_cast_fp16, y = _inversed_query_37_y_0_to_fp16)[name = tensor("_inversed_query_37_cast_fp16")]; - tensor var_3283 = const()[name = tensor("op_3283"), val = tensor([1, 242, 8, 24])]; - tensor x_395_cast_fp16 = reshape(shape = var_3283, x = linear_161_cast_fp16)[name = tensor("x_395_cast_fp16")]; + tensor _inversed_query_37_cast_fp16 = mul(x = x_391_cast_fp16, y = _inversed_query_37_y_0_to_fp16)[name = tensor("_inversed_query_37_cast_fp16")]; + tensor var_3283 = const()[name = tensor("op_3283"), val = tensor([1, 390, 8, 24])]; + tensor x_395_cast_fp16 = reshape(shape = var_3283, x = linear_161_cast_fp16)[name = tensor("x_395_cast_fp16")]; tensor _inversed_key_3_y_0_to_fp16 = const()[name = tensor("_inversed_key_3_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_3_cast_fp16 = mul(x = x_395_cast_fp16, y = _inversed_key_3_y_0_to_fp16)[name = tensor("_inversed_key_3_cast_fp16")]; - tensor var_3291 = const()[name = tensor("op_3291"), val = tensor([1, 242, 8, 24])]; - tensor x_399_cast_fp16 = reshape(shape = var_3291, x = linear_162_cast_fp16)[name = tensor("x_399_cast_fp16")]; + tensor _inversed_key_3_cast_fp16 = mul(x = x_395_cast_fp16, y = _inversed_key_3_y_0_to_fp16)[name = tensor("_inversed_key_3_cast_fp16")]; + tensor var_3291 = const()[name = tensor("op_3291"), val = tensor([1, 390, 8, 24])]; + tensor x_399_cast_fp16 = reshape(shape = var_3291, x = linear_162_cast_fp16)[name = tensor("x_399_cast_fp16")]; tensor var_3293 = const()[name = tensor("op_3293"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_5_transpose_x_1 = const()[name = tensor("attention_scores_5_transpose_x_1"), val = tensor(false)]; tensor attention_scores_5_transpose_y_1 = const()[name = tensor("attention_scores_5_transpose_y_1"), val = tensor(true)]; tensor transpose_87_perm_0 = const()[name = tensor("transpose_87_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_88_perm_0 = const()[name = tensor("transpose_88_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_88 = transpose(perm = transpose_88_perm_0, x = _inversed_key_3_cast_fp16)[name = tensor("transpose_186")]; - tensor transpose_87 = transpose(perm = transpose_87_perm_0, x = _inversed_query_37_cast_fp16)[name = tensor("transpose_187")]; - tensor attention_scores_5_cast_fp16 = matmul(transpose_x = attention_scores_5_transpose_x_1, transpose_y = attention_scores_5_transpose_y_1, x = transpose_87, y = transpose_88)[name = tensor("attention_scores_5_cast_fp16")]; - tensor attention_scores_7_cast_fp16 = add(x = attention_scores_5_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_7_cast_fp16")]; - tensor input_905_cast_fp16 = softmax(axis = var_3111, x = attention_scores_7_cast_fp16)[name = tensor("input_905_cast_fp16")]; + tensor transpose_88 = transpose(perm = transpose_88_perm_0, x = _inversed_key_3_cast_fp16)[name = tensor("transpose_186")]; + tensor transpose_87 = transpose(perm = transpose_87_perm_0, x = _inversed_query_37_cast_fp16)[name = tensor("transpose_187")]; + tensor attention_scores_5_cast_fp16 = matmul(transpose_x = attention_scores_5_transpose_x_1, transpose_y = attention_scores_5_transpose_y_1, x = transpose_87, y = transpose_88)[name = tensor("attention_scores_5_cast_fp16")]; + tensor attention_scores_7_cast_fp16 = add(x = attention_scores_5_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_7_cast_fp16")]; + tensor input_905_cast_fp16 = softmax(axis = var_3111, x = attention_scores_7_cast_fp16)[name = tensor("input_905_cast_fp16")]; tensor context_5_transpose_x_0 = const()[name = tensor("context_5_transpose_x_0"), val = tensor(false)]; tensor context_5_transpose_y_0 = const()[name = tensor("context_5_transpose_y_0"), val = tensor(false)]; - tensor value_37_cast_fp16 = transpose(perm = var_3293, x = x_399_cast_fp16)[name = tensor("transpose_188")]; - tensor context_5_cast_fp16 = matmul(transpose_x = context_5_transpose_x_0, transpose_y = context_5_transpose_y_0, x = input_905_cast_fp16, y = value_37_cast_fp16)[name = tensor("context_5_cast_fp16")]; + tensor value_37_cast_fp16 = transpose(perm = var_3293, x = x_399_cast_fp16)[name = tensor("transpose_188")]; + tensor context_5_cast_fp16 = matmul(transpose_x = context_5_transpose_x_0, transpose_y = context_5_transpose_y_0, x = input_905_cast_fp16, y = value_37_cast_fp16)[name = tensor("context_5_cast_fp16")]; tensor var_3307 = const()[name = tensor("op_3307"), val = tensor([0, 2, 1, 3])]; - tensor var_3312 = const()[name = tensor("op_3312"), val = tensor([1, 242, 192])]; - tensor var_3308_cast_fp16 = transpose(perm = var_3307, x = context_5_cast_fp16)[name = tensor("transpose_185")]; - tensor input_907_cast_fp16 = reshape(shape = var_3312, x = var_3308_cast_fp16)[name = tensor("input_907_cast_fp16")]; - tensor model_transformer_encoder_layers_1_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215432320)))]; - tensor model_transformer_encoder_layers_1_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215506112)))]; - tensor linear_163_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_out_projection_weight_to_fp16, x = input_907_cast_fp16)[name = tensor("linear_163_cast_fp16")]; - tensor input_911_cast_fp16 = add(x = linear_163_cast_fp16, y = input_903_cast_fp16)[name = tensor("input_911_cast_fp16")]; + tensor var_3312 = const()[name = tensor("op_3312"), val = tensor([1, 390, 192])]; + tensor var_3308_cast_fp16 = transpose(perm = var_3307, x = context_5_cast_fp16)[name = tensor("transpose_185")]; + tensor input_907_cast_fp16 = reshape(shape = var_3312, x = var_3308_cast_fp16)[name = tensor("input_907_cast_fp16")]; + tensor model_transformer_encoder_layers_1_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220585088)))]; + tensor model_transformer_encoder_layers_1_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220658880)))]; + tensor linear_163_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_1_first_sub_layer_out_projection_weight_to_fp16, x = input_907_cast_fp16)[name = tensor("linear_163_cast_fp16")]; + tensor input_911_cast_fp16 = add(x = linear_163_cast_fp16, y = input_903_cast_fp16)[name = tensor("input_911_cast_fp16")]; tensor input_913_axes_0 = const()[name = tensor("input_913_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_1_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215506560)))]; - tensor model_transformer_encoder_layers_1_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215507008)))]; - tensor input_913_cast_fp16 = layer_norm(axes = input_913_axes_0, beta = model_transformer_encoder_layers_1_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_1_layer_norm_1_weight_to_fp16, x = input_911_cast_fp16)[name = tensor("input_913_cast_fp16")]; - tensor model_transformer_encoder_layers_1_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215507456)))]; - tensor model_transformer_encoder_layers_1_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215802432)))]; - tensor linear_164_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_1_second_sub_layer_dense_in_weight_to_fp16, x = input_913_cast_fp16)[name = tensor("linear_164_cast_fp16")]; - tensor input_915_cast_fp16 = relu(x = linear_164_cast_fp16)[name = tensor("input_915_cast_fp16")]; - tensor model_transformer_encoder_layers_1_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(215804032)))]; - tensor model_transformer_encoder_layers_1_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216099008)))]; - tensor linear_165_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_1_second_sub_layer_dense_out_weight_to_fp16, x = input_915_cast_fp16)[name = tensor("linear_165_cast_fp16")]; - tensor input_919_cast_fp16 = add(x = linear_165_cast_fp16, y = input_913_cast_fp16)[name = tensor("input_919_cast_fp16")]; + tensor model_transformer_encoder_layers_1_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220659328)))]; + tensor model_transformer_encoder_layers_1_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220659776)))]; + tensor input_913_cast_fp16 = layer_norm(axes = input_913_axes_0, beta = model_transformer_encoder_layers_1_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_1_layer_norm_1_weight_to_fp16, x = input_911_cast_fp16)[name = tensor("input_913_cast_fp16")]; + tensor model_transformer_encoder_layers_1_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220660224)))]; + tensor model_transformer_encoder_layers_1_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220955200)))]; + tensor linear_164_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_1_second_sub_layer_dense_in_weight_to_fp16, x = input_913_cast_fp16)[name = tensor("linear_164_cast_fp16")]; + tensor input_915_cast_fp16 = relu(x = linear_164_cast_fp16)[name = tensor("input_915_cast_fp16")]; + tensor model_transformer_encoder_layers_1_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220956800)))]; + tensor model_transformer_encoder_layers_1_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221251776)))]; + tensor linear_165_cast_fp16 = linear(bias = model_transformer_encoder_layers_1_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_1_second_sub_layer_dense_out_weight_to_fp16, x = input_915_cast_fp16)[name = tensor("linear_165_cast_fp16")]; + tensor input_919_cast_fp16 = add(x = linear_165_cast_fp16, y = input_913_cast_fp16)[name = tensor("input_919_cast_fp16")]; tensor input_921_axes_0 = const()[name = tensor("input_921_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_1_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216099456)))]; - tensor model_transformer_encoder_layers_1_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216099904)))]; - tensor input_921_cast_fp16 = layer_norm(axes = input_921_axes_0, beta = model_transformer_encoder_layers_1_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_1_layer_norm_2_weight_to_fp16, x = input_919_cast_fp16)[name = tensor("input_921_cast_fp16")]; - tensor model_transformer_encoder_layers_2_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216100352)))]; - tensor model_transformer_encoder_layers_2_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216174144)))]; - tensor linear_166_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_query_net_weight_to_fp16, x = input_921_cast_fp16)[name = tensor("linear_166_cast_fp16")]; - tensor model_transformer_encoder_layers_2_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216174592)))]; - tensor model_transformer_encoder_layers_2_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216248384)))]; - tensor linear_167_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_key_net_weight_to_fp16, x = input_921_cast_fp16)[name = tensor("linear_167_cast_fp16")]; - tensor model_transformer_encoder_layers_2_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216248832)))]; - tensor model_transformer_encoder_layers_2_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216322624)))]; - tensor linear_168_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_value_net_weight_to_fp16, x = input_921_cast_fp16)[name = tensor("linear_168_cast_fp16")]; - tensor var_3363 = const()[name = tensor("op_3363"), val = tensor([1, 242, 8, 24])]; - tensor x_403_cast_fp16 = reshape(shape = var_3363, x = linear_166_cast_fp16)[name = tensor("x_403_cast_fp16")]; + tensor model_transformer_encoder_layers_1_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221252224)))]; + tensor model_transformer_encoder_layers_1_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_1_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221252672)))]; + tensor input_921_cast_fp16 = layer_norm(axes = input_921_axes_0, beta = model_transformer_encoder_layers_1_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_1_layer_norm_2_weight_to_fp16, x = input_919_cast_fp16)[name = tensor("input_921_cast_fp16")]; + tensor model_transformer_encoder_layers_2_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221253120)))]; + tensor model_transformer_encoder_layers_2_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221326912)))]; + tensor linear_166_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_query_net_weight_to_fp16, x = input_921_cast_fp16)[name = tensor("linear_166_cast_fp16")]; + tensor model_transformer_encoder_layers_2_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221327360)))]; + tensor model_transformer_encoder_layers_2_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221401152)))]; + tensor linear_167_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_key_net_weight_to_fp16, x = input_921_cast_fp16)[name = tensor("linear_167_cast_fp16")]; + tensor model_transformer_encoder_layers_2_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221401600)))]; + tensor model_transformer_encoder_layers_2_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221475392)))]; + tensor linear_168_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_value_net_weight_to_fp16, x = input_921_cast_fp16)[name = tensor("linear_168_cast_fp16")]; + tensor var_3363 = const()[name = tensor("op_3363"), val = tensor([1, 390, 8, 24])]; + tensor x_403_cast_fp16 = reshape(shape = var_3363, x = linear_166_cast_fp16)[name = tensor("x_403_cast_fp16")]; tensor _inversed_query_39_y_0_to_fp16 = const()[name = tensor("_inversed_query_39_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_39_cast_fp16 = mul(x = x_403_cast_fp16, y = _inversed_query_39_y_0_to_fp16)[name = tensor("_inversed_query_39_cast_fp16")]; - tensor var_3371 = const()[name = tensor("op_3371"), val = tensor([1, 242, 8, 24])]; - tensor x_407_cast_fp16 = reshape(shape = var_3371, x = linear_167_cast_fp16)[name = tensor("x_407_cast_fp16")]; + tensor _inversed_query_39_cast_fp16 = mul(x = x_403_cast_fp16, y = _inversed_query_39_y_0_to_fp16)[name = tensor("_inversed_query_39_cast_fp16")]; + tensor var_3371 = const()[name = tensor("op_3371"), val = tensor([1, 390, 8, 24])]; + tensor x_407_cast_fp16 = reshape(shape = var_3371, x = linear_167_cast_fp16)[name = tensor("x_407_cast_fp16")]; tensor _inversed_key_5_y_0_to_fp16 = const()[name = tensor("_inversed_key_5_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_5_cast_fp16 = mul(x = x_407_cast_fp16, y = _inversed_key_5_y_0_to_fp16)[name = tensor("_inversed_key_5_cast_fp16")]; - tensor var_3379 = const()[name = tensor("op_3379"), val = tensor([1, 242, 8, 24])]; - tensor x_411_cast_fp16 = reshape(shape = var_3379, x = linear_168_cast_fp16)[name = tensor("x_411_cast_fp16")]; + tensor _inversed_key_5_cast_fp16 = mul(x = x_407_cast_fp16, y = _inversed_key_5_y_0_to_fp16)[name = tensor("_inversed_key_5_cast_fp16")]; + tensor var_3379 = const()[name = tensor("op_3379"), val = tensor([1, 390, 8, 24])]; + tensor x_411_cast_fp16 = reshape(shape = var_3379, x = linear_168_cast_fp16)[name = tensor("x_411_cast_fp16")]; tensor var_3381 = const()[name = tensor("op_3381"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_9_transpose_x_1 = const()[name = tensor("attention_scores_9_transpose_x_1"), val = tensor(false)]; tensor attention_scores_9_transpose_y_1 = const()[name = tensor("attention_scores_9_transpose_y_1"), val = tensor(true)]; tensor transpose_89_perm_0 = const()[name = tensor("transpose_89_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_90_perm_0 = const()[name = tensor("transpose_90_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_90 = transpose(perm = transpose_90_perm_0, x = _inversed_key_5_cast_fp16)[name = tensor("transpose_182")]; - tensor transpose_89 = transpose(perm = transpose_89_perm_0, x = _inversed_query_39_cast_fp16)[name = tensor("transpose_183")]; - tensor attention_scores_9_cast_fp16 = matmul(transpose_x = attention_scores_9_transpose_x_1, transpose_y = attention_scores_9_transpose_y_1, x = transpose_89, y = transpose_90)[name = tensor("attention_scores_9_cast_fp16")]; - tensor attention_scores_11_cast_fp16 = add(x = attention_scores_9_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_11_cast_fp16")]; - tensor input_923_cast_fp16 = softmax(axis = var_3111, x = attention_scores_11_cast_fp16)[name = tensor("input_923_cast_fp16")]; + tensor transpose_90 = transpose(perm = transpose_90_perm_0, x = _inversed_key_5_cast_fp16)[name = tensor("transpose_182")]; + tensor transpose_89 = transpose(perm = transpose_89_perm_0, x = _inversed_query_39_cast_fp16)[name = tensor("transpose_183")]; + tensor attention_scores_9_cast_fp16 = matmul(transpose_x = attention_scores_9_transpose_x_1, transpose_y = attention_scores_9_transpose_y_1, x = transpose_89, y = transpose_90)[name = tensor("attention_scores_9_cast_fp16")]; + tensor attention_scores_11_cast_fp16 = add(x = attention_scores_9_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_11_cast_fp16")]; + tensor input_923_cast_fp16 = softmax(axis = var_3111, x = attention_scores_11_cast_fp16)[name = tensor("input_923_cast_fp16")]; tensor context_9_transpose_x_0 = const()[name = tensor("context_9_transpose_x_0"), val = tensor(false)]; tensor context_9_transpose_y_0 = const()[name = tensor("context_9_transpose_y_0"), val = tensor(false)]; - tensor value_39_cast_fp16 = transpose(perm = var_3381, x = x_411_cast_fp16)[name = tensor("transpose_184")]; - tensor context_9_cast_fp16 = matmul(transpose_x = context_9_transpose_x_0, transpose_y = context_9_transpose_y_0, x = input_923_cast_fp16, y = value_39_cast_fp16)[name = tensor("context_9_cast_fp16")]; + tensor value_39_cast_fp16 = transpose(perm = var_3381, x = x_411_cast_fp16)[name = tensor("transpose_184")]; + tensor context_9_cast_fp16 = matmul(transpose_x = context_9_transpose_x_0, transpose_y = context_9_transpose_y_0, x = input_923_cast_fp16, y = value_39_cast_fp16)[name = tensor("context_9_cast_fp16")]; tensor var_3395 = const()[name = tensor("op_3395"), val = tensor([0, 2, 1, 3])]; - tensor var_3400 = const()[name = tensor("op_3400"), val = tensor([1, 242, 192])]; - tensor var_3396_cast_fp16 = transpose(perm = var_3395, x = context_9_cast_fp16)[name = tensor("transpose_181")]; - tensor input_925_cast_fp16 = reshape(shape = var_3400, x = var_3396_cast_fp16)[name = tensor("input_925_cast_fp16")]; - tensor model_transformer_encoder_layers_2_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216323072)))]; - tensor model_transformer_encoder_layers_2_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216396864)))]; - tensor linear_169_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_out_projection_weight_to_fp16, x = input_925_cast_fp16)[name = tensor("linear_169_cast_fp16")]; - tensor input_929_cast_fp16 = add(x = linear_169_cast_fp16, y = input_921_cast_fp16)[name = tensor("input_929_cast_fp16")]; + tensor var_3400 = const()[name = tensor("op_3400"), val = tensor([1, 390, 192])]; + tensor var_3396_cast_fp16 = transpose(perm = var_3395, x = context_9_cast_fp16)[name = tensor("transpose_181")]; + tensor input_925_cast_fp16 = reshape(shape = var_3400, x = var_3396_cast_fp16)[name = tensor("input_925_cast_fp16")]; + tensor model_transformer_encoder_layers_2_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221475840)))]; + tensor model_transformer_encoder_layers_2_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221549632)))]; + tensor linear_169_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_2_first_sub_layer_out_projection_weight_to_fp16, x = input_925_cast_fp16)[name = tensor("linear_169_cast_fp16")]; + tensor input_929_cast_fp16 = add(x = linear_169_cast_fp16, y = input_921_cast_fp16)[name = tensor("input_929_cast_fp16")]; tensor input_931_axes_0 = const()[name = tensor("input_931_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_2_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216397312)))]; - tensor model_transformer_encoder_layers_2_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216397760)))]; - tensor input_931_cast_fp16 = layer_norm(axes = input_931_axes_0, beta = model_transformer_encoder_layers_2_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_2_layer_norm_1_weight_to_fp16, x = input_929_cast_fp16)[name = tensor("input_931_cast_fp16")]; - tensor model_transformer_encoder_layers_2_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216398208)))]; - tensor model_transformer_encoder_layers_2_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216693184)))]; - tensor linear_170_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_2_second_sub_layer_dense_in_weight_to_fp16, x = input_931_cast_fp16)[name = tensor("linear_170_cast_fp16")]; - tensor input_933_cast_fp16 = relu(x = linear_170_cast_fp16)[name = tensor("input_933_cast_fp16")]; - tensor model_transformer_encoder_layers_2_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216694784)))]; - tensor model_transformer_encoder_layers_2_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216989760)))]; - tensor linear_171_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_2_second_sub_layer_dense_out_weight_to_fp16, x = input_933_cast_fp16)[name = tensor("linear_171_cast_fp16")]; - tensor input_937_cast_fp16 = add(x = linear_171_cast_fp16, y = input_931_cast_fp16)[name = tensor("input_937_cast_fp16")]; + tensor model_transformer_encoder_layers_2_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221550080)))]; + tensor model_transformer_encoder_layers_2_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221550528)))]; + tensor input_931_cast_fp16 = layer_norm(axes = input_931_axes_0, beta = model_transformer_encoder_layers_2_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_2_layer_norm_1_weight_to_fp16, x = input_929_cast_fp16)[name = tensor("input_931_cast_fp16")]; + tensor model_transformer_encoder_layers_2_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221550976)))]; + tensor model_transformer_encoder_layers_2_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221845952)))]; + tensor linear_170_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_2_second_sub_layer_dense_in_weight_to_fp16, x = input_931_cast_fp16)[name = tensor("linear_170_cast_fp16")]; + tensor input_933_cast_fp16 = relu(x = linear_170_cast_fp16)[name = tensor("input_933_cast_fp16")]; + tensor model_transformer_encoder_layers_2_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221847552)))]; + tensor model_transformer_encoder_layers_2_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222142528)))]; + tensor linear_171_cast_fp16 = linear(bias = model_transformer_encoder_layers_2_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_2_second_sub_layer_dense_out_weight_to_fp16, x = input_933_cast_fp16)[name = tensor("linear_171_cast_fp16")]; + tensor input_937_cast_fp16 = add(x = linear_171_cast_fp16, y = input_931_cast_fp16)[name = tensor("input_937_cast_fp16")]; tensor input_939_axes_0 = const()[name = tensor("input_939_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_2_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216990208)))]; - tensor model_transformer_encoder_layers_2_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216990656)))]; - tensor input_939_cast_fp16 = layer_norm(axes = input_939_axes_0, beta = model_transformer_encoder_layers_2_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_2_layer_norm_2_weight_to_fp16, x = input_937_cast_fp16)[name = tensor("input_939_cast_fp16")]; - tensor model_transformer_encoder_layers_3_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(216991104)))]; - tensor model_transformer_encoder_layers_3_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217064896)))]; - tensor linear_172_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_query_net_weight_to_fp16, x = input_939_cast_fp16)[name = tensor("linear_172_cast_fp16")]; - tensor model_transformer_encoder_layers_3_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217065344)))]; - tensor model_transformer_encoder_layers_3_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217139136)))]; - tensor linear_173_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_key_net_weight_to_fp16, x = input_939_cast_fp16)[name = tensor("linear_173_cast_fp16")]; - tensor model_transformer_encoder_layers_3_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217139584)))]; - tensor model_transformer_encoder_layers_3_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217213376)))]; - tensor linear_174_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_value_net_weight_to_fp16, x = input_939_cast_fp16)[name = tensor("linear_174_cast_fp16")]; - tensor var_3451 = const()[name = tensor("op_3451"), val = tensor([1, 242, 8, 24])]; - tensor x_415_cast_fp16 = reshape(shape = var_3451, x = linear_172_cast_fp16)[name = tensor("x_415_cast_fp16")]; + tensor model_transformer_encoder_layers_2_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222142976)))]; + tensor model_transformer_encoder_layers_2_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_2_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222143424)))]; + tensor input_939_cast_fp16 = layer_norm(axes = input_939_axes_0, beta = model_transformer_encoder_layers_2_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_2_layer_norm_2_weight_to_fp16, x = input_937_cast_fp16)[name = tensor("input_939_cast_fp16")]; + tensor model_transformer_encoder_layers_3_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222143872)))]; + tensor model_transformer_encoder_layers_3_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222217664)))]; + tensor linear_172_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_query_net_weight_to_fp16, x = input_939_cast_fp16)[name = tensor("linear_172_cast_fp16")]; + tensor model_transformer_encoder_layers_3_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222218112)))]; + tensor model_transformer_encoder_layers_3_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222291904)))]; + tensor linear_173_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_key_net_weight_to_fp16, x = input_939_cast_fp16)[name = tensor("linear_173_cast_fp16")]; + tensor model_transformer_encoder_layers_3_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222292352)))]; + tensor model_transformer_encoder_layers_3_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222366144)))]; + tensor linear_174_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_value_net_weight_to_fp16, x = input_939_cast_fp16)[name = tensor("linear_174_cast_fp16")]; + tensor var_3451 = const()[name = tensor("op_3451"), val = tensor([1, 390, 8, 24])]; + tensor x_415_cast_fp16 = reshape(shape = var_3451, x = linear_172_cast_fp16)[name = tensor("x_415_cast_fp16")]; tensor _inversed_query_41_y_0_to_fp16 = const()[name = tensor("_inversed_query_41_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_41_cast_fp16 = mul(x = x_415_cast_fp16, y = _inversed_query_41_y_0_to_fp16)[name = tensor("_inversed_query_41_cast_fp16")]; - tensor var_3459 = const()[name = tensor("op_3459"), val = tensor([1, 242, 8, 24])]; - tensor x_419_cast_fp16 = reshape(shape = var_3459, x = linear_173_cast_fp16)[name = tensor("x_419_cast_fp16")]; + tensor _inversed_query_41_cast_fp16 = mul(x = x_415_cast_fp16, y = _inversed_query_41_y_0_to_fp16)[name = tensor("_inversed_query_41_cast_fp16")]; + tensor var_3459 = const()[name = tensor("op_3459"), val = tensor([1, 390, 8, 24])]; + tensor x_419_cast_fp16 = reshape(shape = var_3459, x = linear_173_cast_fp16)[name = tensor("x_419_cast_fp16")]; tensor _inversed_key_7_y_0_to_fp16 = const()[name = tensor("_inversed_key_7_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_7_cast_fp16 = mul(x = x_419_cast_fp16, y = _inversed_key_7_y_0_to_fp16)[name = tensor("_inversed_key_7_cast_fp16")]; - tensor var_3467 = const()[name = tensor("op_3467"), val = tensor([1, 242, 8, 24])]; - tensor x_423_cast_fp16 = reshape(shape = var_3467, x = linear_174_cast_fp16)[name = tensor("x_423_cast_fp16")]; + tensor _inversed_key_7_cast_fp16 = mul(x = x_419_cast_fp16, y = _inversed_key_7_y_0_to_fp16)[name = tensor("_inversed_key_7_cast_fp16")]; + tensor var_3467 = const()[name = tensor("op_3467"), val = tensor([1, 390, 8, 24])]; + tensor x_423_cast_fp16 = reshape(shape = var_3467, x = linear_174_cast_fp16)[name = tensor("x_423_cast_fp16")]; tensor var_3469 = const()[name = tensor("op_3469"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_13_transpose_x_1 = const()[name = tensor("attention_scores_13_transpose_x_1"), val = tensor(false)]; tensor attention_scores_13_transpose_y_1 = const()[name = tensor("attention_scores_13_transpose_y_1"), val = tensor(true)]; tensor transpose_91_perm_0 = const()[name = tensor("transpose_91_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_92_perm_0 = const()[name = tensor("transpose_92_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_92 = transpose(perm = transpose_92_perm_0, x = _inversed_key_7_cast_fp16)[name = tensor("transpose_178")]; - tensor transpose_91 = transpose(perm = transpose_91_perm_0, x = _inversed_query_41_cast_fp16)[name = tensor("transpose_179")]; - tensor attention_scores_13_cast_fp16 = matmul(transpose_x = attention_scores_13_transpose_x_1, transpose_y = attention_scores_13_transpose_y_1, x = transpose_91, y = transpose_92)[name = tensor("attention_scores_13_cast_fp16")]; - tensor attention_scores_15_cast_fp16 = add(x = attention_scores_13_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_15_cast_fp16")]; - tensor input_941_cast_fp16 = softmax(axis = var_3111, x = attention_scores_15_cast_fp16)[name = tensor("input_941_cast_fp16")]; + tensor transpose_92 = transpose(perm = transpose_92_perm_0, x = _inversed_key_7_cast_fp16)[name = tensor("transpose_178")]; + tensor transpose_91 = transpose(perm = transpose_91_perm_0, x = _inversed_query_41_cast_fp16)[name = tensor("transpose_179")]; + tensor attention_scores_13_cast_fp16 = matmul(transpose_x = attention_scores_13_transpose_x_1, transpose_y = attention_scores_13_transpose_y_1, x = transpose_91, y = transpose_92)[name = tensor("attention_scores_13_cast_fp16")]; + tensor attention_scores_15_cast_fp16 = add(x = attention_scores_13_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_15_cast_fp16")]; + tensor input_941_cast_fp16 = softmax(axis = var_3111, x = attention_scores_15_cast_fp16)[name = tensor("input_941_cast_fp16")]; tensor context_13_transpose_x_0 = const()[name = tensor("context_13_transpose_x_0"), val = tensor(false)]; tensor context_13_transpose_y_0 = const()[name = tensor("context_13_transpose_y_0"), val = tensor(false)]; - tensor value_41_cast_fp16 = transpose(perm = var_3469, x = x_423_cast_fp16)[name = tensor("transpose_180")]; - tensor context_13_cast_fp16 = matmul(transpose_x = context_13_transpose_x_0, transpose_y = context_13_transpose_y_0, x = input_941_cast_fp16, y = value_41_cast_fp16)[name = tensor("context_13_cast_fp16")]; + tensor value_41_cast_fp16 = transpose(perm = var_3469, x = x_423_cast_fp16)[name = tensor("transpose_180")]; + tensor context_13_cast_fp16 = matmul(transpose_x = context_13_transpose_x_0, transpose_y = context_13_transpose_y_0, x = input_941_cast_fp16, y = value_41_cast_fp16)[name = tensor("context_13_cast_fp16")]; tensor var_3483 = const()[name = tensor("op_3483"), val = tensor([0, 2, 1, 3])]; - tensor var_3488 = const()[name = tensor("op_3488"), val = tensor([1, 242, 192])]; - tensor var_3484_cast_fp16 = transpose(perm = var_3483, x = context_13_cast_fp16)[name = tensor("transpose_177")]; - tensor input_943_cast_fp16 = reshape(shape = var_3488, x = var_3484_cast_fp16)[name = tensor("input_943_cast_fp16")]; - tensor model_transformer_encoder_layers_3_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217213824)))]; - tensor model_transformer_encoder_layers_3_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217287616)))]; - tensor linear_175_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_out_projection_weight_to_fp16, x = input_943_cast_fp16)[name = tensor("linear_175_cast_fp16")]; - tensor input_947_cast_fp16 = add(x = linear_175_cast_fp16, y = input_939_cast_fp16)[name = tensor("input_947_cast_fp16")]; + tensor var_3488 = const()[name = tensor("op_3488"), val = tensor([1, 390, 192])]; + tensor var_3484_cast_fp16 = transpose(perm = var_3483, x = context_13_cast_fp16)[name = tensor("transpose_177")]; + tensor input_943_cast_fp16 = reshape(shape = var_3488, x = var_3484_cast_fp16)[name = tensor("input_943_cast_fp16")]; + tensor model_transformer_encoder_layers_3_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222366592)))]; + tensor model_transformer_encoder_layers_3_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222440384)))]; + tensor linear_175_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_3_first_sub_layer_out_projection_weight_to_fp16, x = input_943_cast_fp16)[name = tensor("linear_175_cast_fp16")]; + tensor input_947_cast_fp16 = add(x = linear_175_cast_fp16, y = input_939_cast_fp16)[name = tensor("input_947_cast_fp16")]; tensor input_949_axes_0 = const()[name = tensor("input_949_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_3_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217288064)))]; - tensor model_transformer_encoder_layers_3_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217288512)))]; - tensor input_949_cast_fp16 = layer_norm(axes = input_949_axes_0, beta = model_transformer_encoder_layers_3_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_3_layer_norm_1_weight_to_fp16, x = input_947_cast_fp16)[name = tensor("input_949_cast_fp16")]; - tensor model_transformer_encoder_layers_3_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217288960)))]; - tensor model_transformer_encoder_layers_3_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217583936)))]; - tensor linear_176_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_3_second_sub_layer_dense_in_weight_to_fp16, x = input_949_cast_fp16)[name = tensor("linear_176_cast_fp16")]; - tensor input_951_cast_fp16 = relu(x = linear_176_cast_fp16)[name = tensor("input_951_cast_fp16")]; - tensor model_transformer_encoder_layers_3_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217585536)))]; - tensor model_transformer_encoder_layers_3_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217880512)))]; - tensor linear_177_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_3_second_sub_layer_dense_out_weight_to_fp16, x = input_951_cast_fp16)[name = tensor("linear_177_cast_fp16")]; - tensor input_955_cast_fp16 = add(x = linear_177_cast_fp16, y = input_949_cast_fp16)[name = tensor("input_955_cast_fp16")]; + tensor model_transformer_encoder_layers_3_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222440832)))]; + tensor model_transformer_encoder_layers_3_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222441280)))]; + tensor input_949_cast_fp16 = layer_norm(axes = input_949_axes_0, beta = model_transformer_encoder_layers_3_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_3_layer_norm_1_weight_to_fp16, x = input_947_cast_fp16)[name = tensor("input_949_cast_fp16")]; + tensor model_transformer_encoder_layers_3_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222441728)))]; + tensor model_transformer_encoder_layers_3_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222736704)))]; + tensor linear_176_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_3_second_sub_layer_dense_in_weight_to_fp16, x = input_949_cast_fp16)[name = tensor("linear_176_cast_fp16")]; + tensor input_951_cast_fp16 = relu(x = linear_176_cast_fp16)[name = tensor("input_951_cast_fp16")]; + tensor model_transformer_encoder_layers_3_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222738304)))]; + tensor model_transformer_encoder_layers_3_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223033280)))]; + tensor linear_177_cast_fp16 = linear(bias = model_transformer_encoder_layers_3_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_3_second_sub_layer_dense_out_weight_to_fp16, x = input_951_cast_fp16)[name = tensor("linear_177_cast_fp16")]; + tensor input_955_cast_fp16 = add(x = linear_177_cast_fp16, y = input_949_cast_fp16)[name = tensor("input_955_cast_fp16")]; tensor input_957_axes_0 = const()[name = tensor("input_957_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_3_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217880960)))]; - tensor model_transformer_encoder_layers_3_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217881408)))]; - tensor input_957_cast_fp16 = layer_norm(axes = input_957_axes_0, beta = model_transformer_encoder_layers_3_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_3_layer_norm_2_weight_to_fp16, x = input_955_cast_fp16)[name = tensor("input_957_cast_fp16")]; - tensor model_transformer_encoder_layers_4_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217881856)))]; - tensor model_transformer_encoder_layers_4_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217955648)))]; - tensor linear_178_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_query_net_weight_to_fp16, x = input_957_cast_fp16)[name = tensor("linear_178_cast_fp16")]; - tensor model_transformer_encoder_layers_4_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(217956096)))]; - tensor model_transformer_encoder_layers_4_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218029888)))]; - tensor linear_179_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_key_net_weight_to_fp16, x = input_957_cast_fp16)[name = tensor("linear_179_cast_fp16")]; - tensor model_transformer_encoder_layers_4_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218030336)))]; - tensor model_transformer_encoder_layers_4_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218104128)))]; - tensor linear_180_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_value_net_weight_to_fp16, x = input_957_cast_fp16)[name = tensor("linear_180_cast_fp16")]; - tensor var_3539 = const()[name = tensor("op_3539"), val = tensor([1, 242, 8, 24])]; - tensor x_427_cast_fp16 = reshape(shape = var_3539, x = linear_178_cast_fp16)[name = tensor("x_427_cast_fp16")]; + tensor model_transformer_encoder_layers_3_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223033728)))]; + tensor model_transformer_encoder_layers_3_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_3_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223034176)))]; + tensor input_957_cast_fp16 = layer_norm(axes = input_957_axes_0, beta = model_transformer_encoder_layers_3_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_3_layer_norm_2_weight_to_fp16, x = input_955_cast_fp16)[name = tensor("input_957_cast_fp16")]; + tensor model_transformer_encoder_layers_4_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223034624)))]; + tensor model_transformer_encoder_layers_4_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223108416)))]; + tensor linear_178_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_query_net_weight_to_fp16, x = input_957_cast_fp16)[name = tensor("linear_178_cast_fp16")]; + tensor model_transformer_encoder_layers_4_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223108864)))]; + tensor model_transformer_encoder_layers_4_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223182656)))]; + tensor linear_179_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_key_net_weight_to_fp16, x = input_957_cast_fp16)[name = tensor("linear_179_cast_fp16")]; + tensor model_transformer_encoder_layers_4_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223183104)))]; + tensor model_transformer_encoder_layers_4_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223256896)))]; + tensor linear_180_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_value_net_weight_to_fp16, x = input_957_cast_fp16)[name = tensor("linear_180_cast_fp16")]; + tensor var_3539 = const()[name = tensor("op_3539"), val = tensor([1, 390, 8, 24])]; + tensor x_427_cast_fp16 = reshape(shape = var_3539, x = linear_178_cast_fp16)[name = tensor("x_427_cast_fp16")]; tensor _inversed_query_43_y_0_to_fp16 = const()[name = tensor("_inversed_query_43_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_43_cast_fp16 = mul(x = x_427_cast_fp16, y = _inversed_query_43_y_0_to_fp16)[name = tensor("_inversed_query_43_cast_fp16")]; - tensor var_3547 = const()[name = tensor("op_3547"), val = tensor([1, 242, 8, 24])]; - tensor x_431_cast_fp16 = reshape(shape = var_3547, x = linear_179_cast_fp16)[name = tensor("x_431_cast_fp16")]; + tensor _inversed_query_43_cast_fp16 = mul(x = x_427_cast_fp16, y = _inversed_query_43_y_0_to_fp16)[name = tensor("_inversed_query_43_cast_fp16")]; + tensor var_3547 = const()[name = tensor("op_3547"), val = tensor([1, 390, 8, 24])]; + tensor x_431_cast_fp16 = reshape(shape = var_3547, x = linear_179_cast_fp16)[name = tensor("x_431_cast_fp16")]; tensor _inversed_key_9_y_0_to_fp16 = const()[name = tensor("_inversed_key_9_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_9_cast_fp16 = mul(x = x_431_cast_fp16, y = _inversed_key_9_y_0_to_fp16)[name = tensor("_inversed_key_9_cast_fp16")]; - tensor var_3555 = const()[name = tensor("op_3555"), val = tensor([1, 242, 8, 24])]; - tensor x_435_cast_fp16 = reshape(shape = var_3555, x = linear_180_cast_fp16)[name = tensor("x_435_cast_fp16")]; + tensor _inversed_key_9_cast_fp16 = mul(x = x_431_cast_fp16, y = _inversed_key_9_y_0_to_fp16)[name = tensor("_inversed_key_9_cast_fp16")]; + tensor var_3555 = const()[name = tensor("op_3555"), val = tensor([1, 390, 8, 24])]; + tensor x_435_cast_fp16 = reshape(shape = var_3555, x = linear_180_cast_fp16)[name = tensor("x_435_cast_fp16")]; tensor var_3557 = const()[name = tensor("op_3557"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_17_transpose_x_1 = const()[name = tensor("attention_scores_17_transpose_x_1"), val = tensor(false)]; tensor attention_scores_17_transpose_y_1 = const()[name = tensor("attention_scores_17_transpose_y_1"), val = tensor(true)]; tensor transpose_93_perm_0 = const()[name = tensor("transpose_93_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_94_perm_0 = const()[name = tensor("transpose_94_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_94 = transpose(perm = transpose_94_perm_0, x = _inversed_key_9_cast_fp16)[name = tensor("transpose_174")]; - tensor transpose_93 = transpose(perm = transpose_93_perm_0, x = _inversed_query_43_cast_fp16)[name = tensor("transpose_175")]; - tensor attention_scores_17_cast_fp16 = matmul(transpose_x = attention_scores_17_transpose_x_1, transpose_y = attention_scores_17_transpose_y_1, x = transpose_93, y = transpose_94)[name = tensor("attention_scores_17_cast_fp16")]; - tensor attention_scores_19_cast_fp16 = add(x = attention_scores_17_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_19_cast_fp16")]; - tensor input_959_cast_fp16 = softmax(axis = var_3111, x = attention_scores_19_cast_fp16)[name = tensor("input_959_cast_fp16")]; + tensor transpose_94 = transpose(perm = transpose_94_perm_0, x = _inversed_key_9_cast_fp16)[name = tensor("transpose_174")]; + tensor transpose_93 = transpose(perm = transpose_93_perm_0, x = _inversed_query_43_cast_fp16)[name = tensor("transpose_175")]; + tensor attention_scores_17_cast_fp16 = matmul(transpose_x = attention_scores_17_transpose_x_1, transpose_y = attention_scores_17_transpose_y_1, x = transpose_93, y = transpose_94)[name = tensor("attention_scores_17_cast_fp16")]; + tensor attention_scores_19_cast_fp16 = add(x = attention_scores_17_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_19_cast_fp16")]; + tensor input_959_cast_fp16 = softmax(axis = var_3111, x = attention_scores_19_cast_fp16)[name = tensor("input_959_cast_fp16")]; tensor context_17_transpose_x_0 = const()[name = tensor("context_17_transpose_x_0"), val = tensor(false)]; tensor context_17_transpose_y_0 = const()[name = tensor("context_17_transpose_y_0"), val = tensor(false)]; - tensor value_43_cast_fp16 = transpose(perm = var_3557, x = x_435_cast_fp16)[name = tensor("transpose_176")]; - tensor context_17_cast_fp16 = matmul(transpose_x = context_17_transpose_x_0, transpose_y = context_17_transpose_y_0, x = input_959_cast_fp16, y = value_43_cast_fp16)[name = tensor("context_17_cast_fp16")]; + tensor value_43_cast_fp16 = transpose(perm = var_3557, x = x_435_cast_fp16)[name = tensor("transpose_176")]; + tensor context_17_cast_fp16 = matmul(transpose_x = context_17_transpose_x_0, transpose_y = context_17_transpose_y_0, x = input_959_cast_fp16, y = value_43_cast_fp16)[name = tensor("context_17_cast_fp16")]; tensor var_3571 = const()[name = tensor("op_3571"), val = tensor([0, 2, 1, 3])]; - tensor var_3576 = const()[name = tensor("op_3576"), val = tensor([1, 242, 192])]; - tensor var_3572_cast_fp16 = transpose(perm = var_3571, x = context_17_cast_fp16)[name = tensor("transpose_173")]; - tensor input_961_cast_fp16 = reshape(shape = var_3576, x = var_3572_cast_fp16)[name = tensor("input_961_cast_fp16")]; - tensor model_transformer_encoder_layers_4_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218104576)))]; - tensor model_transformer_encoder_layers_4_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218178368)))]; - tensor linear_181_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_out_projection_weight_to_fp16, x = input_961_cast_fp16)[name = tensor("linear_181_cast_fp16")]; - tensor input_965_cast_fp16 = add(x = linear_181_cast_fp16, y = input_957_cast_fp16)[name = tensor("input_965_cast_fp16")]; + tensor var_3576 = const()[name = tensor("op_3576"), val = tensor([1, 390, 192])]; + tensor var_3572_cast_fp16 = transpose(perm = var_3571, x = context_17_cast_fp16)[name = tensor("transpose_173")]; + tensor input_961_cast_fp16 = reshape(shape = var_3576, x = var_3572_cast_fp16)[name = tensor("input_961_cast_fp16")]; + tensor model_transformer_encoder_layers_4_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223257344)))]; + tensor model_transformer_encoder_layers_4_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223331136)))]; + tensor linear_181_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_4_first_sub_layer_out_projection_weight_to_fp16, x = input_961_cast_fp16)[name = tensor("linear_181_cast_fp16")]; + tensor input_965_cast_fp16 = add(x = linear_181_cast_fp16, y = input_957_cast_fp16)[name = tensor("input_965_cast_fp16")]; tensor input_967_axes_0 = const()[name = tensor("input_967_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_4_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218178816)))]; - tensor model_transformer_encoder_layers_4_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218179264)))]; - tensor input_967_cast_fp16 = layer_norm(axes = input_967_axes_0, beta = model_transformer_encoder_layers_4_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_4_layer_norm_1_weight_to_fp16, x = input_965_cast_fp16)[name = tensor("input_967_cast_fp16")]; - tensor model_transformer_encoder_layers_4_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218179712)))]; - tensor model_transformer_encoder_layers_4_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218474688)))]; - tensor linear_182_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_4_second_sub_layer_dense_in_weight_to_fp16, x = input_967_cast_fp16)[name = tensor("linear_182_cast_fp16")]; - tensor input_969_cast_fp16 = relu(x = linear_182_cast_fp16)[name = tensor("input_969_cast_fp16")]; - tensor model_transformer_encoder_layers_4_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218476288)))]; - tensor model_transformer_encoder_layers_4_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218771264)))]; - tensor linear_183_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_4_second_sub_layer_dense_out_weight_to_fp16, x = input_969_cast_fp16)[name = tensor("linear_183_cast_fp16")]; - tensor input_973_cast_fp16 = add(x = linear_183_cast_fp16, y = input_967_cast_fp16)[name = tensor("input_973_cast_fp16")]; + tensor model_transformer_encoder_layers_4_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223331584)))]; + tensor model_transformer_encoder_layers_4_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223332032)))]; + tensor input_967_cast_fp16 = layer_norm(axes = input_967_axes_0, beta = model_transformer_encoder_layers_4_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_4_layer_norm_1_weight_to_fp16, x = input_965_cast_fp16)[name = tensor("input_967_cast_fp16")]; + tensor model_transformer_encoder_layers_4_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223332480)))]; + tensor model_transformer_encoder_layers_4_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223627456)))]; + tensor linear_182_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_4_second_sub_layer_dense_in_weight_to_fp16, x = input_967_cast_fp16)[name = tensor("linear_182_cast_fp16")]; + tensor input_969_cast_fp16 = relu(x = linear_182_cast_fp16)[name = tensor("input_969_cast_fp16")]; + tensor model_transformer_encoder_layers_4_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223629056)))]; + tensor model_transformer_encoder_layers_4_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223924032)))]; + tensor linear_183_cast_fp16 = linear(bias = model_transformer_encoder_layers_4_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_4_second_sub_layer_dense_out_weight_to_fp16, x = input_969_cast_fp16)[name = tensor("linear_183_cast_fp16")]; + tensor input_973_cast_fp16 = add(x = linear_183_cast_fp16, y = input_967_cast_fp16)[name = tensor("input_973_cast_fp16")]; tensor input_975_axes_0 = const()[name = tensor("input_975_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_4_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218771712)))]; - tensor model_transformer_encoder_layers_4_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218772160)))]; - tensor input_975_cast_fp16 = layer_norm(axes = input_975_axes_0, beta = model_transformer_encoder_layers_4_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_4_layer_norm_2_weight_to_fp16, x = input_973_cast_fp16)[name = tensor("input_975_cast_fp16")]; - tensor model_transformer_encoder_layers_5_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218772608)))]; - tensor model_transformer_encoder_layers_5_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218846400)))]; - tensor linear_184_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_query_net_weight_to_fp16, x = input_975_cast_fp16)[name = tensor("linear_184_cast_fp16")]; - tensor model_transformer_encoder_layers_5_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218846848)))]; - tensor model_transformer_encoder_layers_5_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218920640)))]; - tensor linear_185_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_key_net_weight_to_fp16, x = input_975_cast_fp16)[name = tensor("linear_185_cast_fp16")]; - tensor model_transformer_encoder_layers_5_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218921088)))]; - tensor model_transformer_encoder_layers_5_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218994880)))]; - tensor linear_186_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_value_net_weight_to_fp16, x = input_975_cast_fp16)[name = tensor("linear_186_cast_fp16")]; - tensor var_3627 = const()[name = tensor("op_3627"), val = tensor([1, 242, 8, 24])]; - tensor x_439_cast_fp16 = reshape(shape = var_3627, x = linear_184_cast_fp16)[name = tensor("x_439_cast_fp16")]; + tensor model_transformer_encoder_layers_4_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223924480)))]; + tensor model_transformer_encoder_layers_4_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_4_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223924928)))]; + tensor input_975_cast_fp16 = layer_norm(axes = input_975_axes_0, beta = model_transformer_encoder_layers_4_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_4_layer_norm_2_weight_to_fp16, x = input_973_cast_fp16)[name = tensor("input_975_cast_fp16")]; + tensor model_transformer_encoder_layers_5_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223925376)))]; + tensor model_transformer_encoder_layers_5_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223999168)))]; + tensor linear_184_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_query_net_weight_to_fp16, x = input_975_cast_fp16)[name = tensor("linear_184_cast_fp16")]; + tensor model_transformer_encoder_layers_5_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223999616)))]; + tensor model_transformer_encoder_layers_5_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224073408)))]; + tensor linear_185_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_key_net_weight_to_fp16, x = input_975_cast_fp16)[name = tensor("linear_185_cast_fp16")]; + tensor model_transformer_encoder_layers_5_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224073856)))]; + tensor model_transformer_encoder_layers_5_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224147648)))]; + tensor linear_186_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_value_net_weight_to_fp16, x = input_975_cast_fp16)[name = tensor("linear_186_cast_fp16")]; + tensor var_3627 = const()[name = tensor("op_3627"), val = tensor([1, 390, 8, 24])]; + tensor x_439_cast_fp16 = reshape(shape = var_3627, x = linear_184_cast_fp16)[name = tensor("x_439_cast_fp16")]; tensor _inversed_query_45_y_0_to_fp16 = const()[name = tensor("_inversed_query_45_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_45_cast_fp16 = mul(x = x_439_cast_fp16, y = _inversed_query_45_y_0_to_fp16)[name = tensor("_inversed_query_45_cast_fp16")]; - tensor var_3635 = const()[name = tensor("op_3635"), val = tensor([1, 242, 8, 24])]; - tensor x_443_cast_fp16 = reshape(shape = var_3635, x = linear_185_cast_fp16)[name = tensor("x_443_cast_fp16")]; + tensor _inversed_query_45_cast_fp16 = mul(x = x_439_cast_fp16, y = _inversed_query_45_y_0_to_fp16)[name = tensor("_inversed_query_45_cast_fp16")]; + tensor var_3635 = const()[name = tensor("op_3635"), val = tensor([1, 390, 8, 24])]; + tensor x_443_cast_fp16 = reshape(shape = var_3635, x = linear_185_cast_fp16)[name = tensor("x_443_cast_fp16")]; tensor _inversed_key_11_y_0_to_fp16 = const()[name = tensor("_inversed_key_11_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_11_cast_fp16 = mul(x = x_443_cast_fp16, y = _inversed_key_11_y_0_to_fp16)[name = tensor("_inversed_key_11_cast_fp16")]; - tensor var_3643 = const()[name = tensor("op_3643"), val = tensor([1, 242, 8, 24])]; - tensor x_447_cast_fp16 = reshape(shape = var_3643, x = linear_186_cast_fp16)[name = tensor("x_447_cast_fp16")]; + tensor _inversed_key_11_cast_fp16 = mul(x = x_443_cast_fp16, y = _inversed_key_11_y_0_to_fp16)[name = tensor("_inversed_key_11_cast_fp16")]; + tensor var_3643 = const()[name = tensor("op_3643"), val = tensor([1, 390, 8, 24])]; + tensor x_447_cast_fp16 = reshape(shape = var_3643, x = linear_186_cast_fp16)[name = tensor("x_447_cast_fp16")]; tensor var_3645 = const()[name = tensor("op_3645"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_21_transpose_x_1 = const()[name = tensor("attention_scores_21_transpose_x_1"), val = tensor(false)]; tensor attention_scores_21_transpose_y_1 = const()[name = tensor("attention_scores_21_transpose_y_1"), val = tensor(true)]; tensor transpose_95_perm_0 = const()[name = tensor("transpose_95_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_96_perm_0 = const()[name = tensor("transpose_96_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_96 = transpose(perm = transpose_96_perm_0, x = _inversed_key_11_cast_fp16)[name = tensor("transpose_170")]; - tensor transpose_95 = transpose(perm = transpose_95_perm_0, x = _inversed_query_45_cast_fp16)[name = tensor("transpose_171")]; - tensor attention_scores_21_cast_fp16 = matmul(transpose_x = attention_scores_21_transpose_x_1, transpose_y = attention_scores_21_transpose_y_1, x = transpose_95, y = transpose_96)[name = tensor("attention_scores_21_cast_fp16")]; - tensor attention_scores_23_cast_fp16 = add(x = attention_scores_21_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_23_cast_fp16")]; - tensor input_977_cast_fp16 = softmax(axis = var_3111, x = attention_scores_23_cast_fp16)[name = tensor("input_977_cast_fp16")]; + tensor transpose_96 = transpose(perm = transpose_96_perm_0, x = _inversed_key_11_cast_fp16)[name = tensor("transpose_170")]; + tensor transpose_95 = transpose(perm = transpose_95_perm_0, x = _inversed_query_45_cast_fp16)[name = tensor("transpose_171")]; + tensor attention_scores_21_cast_fp16 = matmul(transpose_x = attention_scores_21_transpose_x_1, transpose_y = attention_scores_21_transpose_y_1, x = transpose_95, y = transpose_96)[name = tensor("attention_scores_21_cast_fp16")]; + tensor attention_scores_23_cast_fp16 = add(x = attention_scores_21_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_23_cast_fp16")]; + tensor input_977_cast_fp16 = softmax(axis = var_3111, x = attention_scores_23_cast_fp16)[name = tensor("input_977_cast_fp16")]; tensor context_21_transpose_x_0 = const()[name = tensor("context_21_transpose_x_0"), val = tensor(false)]; tensor context_21_transpose_y_0 = const()[name = tensor("context_21_transpose_y_0"), val = tensor(false)]; - tensor value_45_cast_fp16 = transpose(perm = var_3645, x = x_447_cast_fp16)[name = tensor("transpose_172")]; - tensor context_21_cast_fp16 = matmul(transpose_x = context_21_transpose_x_0, transpose_y = context_21_transpose_y_0, x = input_977_cast_fp16, y = value_45_cast_fp16)[name = tensor("context_21_cast_fp16")]; + tensor value_45_cast_fp16 = transpose(perm = var_3645, x = x_447_cast_fp16)[name = tensor("transpose_172")]; + tensor context_21_cast_fp16 = matmul(transpose_x = context_21_transpose_x_0, transpose_y = context_21_transpose_y_0, x = input_977_cast_fp16, y = value_45_cast_fp16)[name = tensor("context_21_cast_fp16")]; tensor var_3659 = const()[name = tensor("op_3659"), val = tensor([0, 2, 1, 3])]; - tensor var_3664 = const()[name = tensor("op_3664"), val = tensor([1, 242, 192])]; - tensor var_3660_cast_fp16 = transpose(perm = var_3659, x = context_21_cast_fp16)[name = tensor("transpose_169")]; - tensor input_979_cast_fp16 = reshape(shape = var_3664, x = var_3660_cast_fp16)[name = tensor("input_979_cast_fp16")]; - tensor model_transformer_encoder_layers_5_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(218995328)))]; - tensor model_transformer_encoder_layers_5_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219069120)))]; - tensor linear_187_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_out_projection_weight_to_fp16, x = input_979_cast_fp16)[name = tensor("linear_187_cast_fp16")]; - tensor input_983_cast_fp16 = add(x = linear_187_cast_fp16, y = input_975_cast_fp16)[name = tensor("input_983_cast_fp16")]; + tensor var_3664 = const()[name = tensor("op_3664"), val = tensor([1, 390, 192])]; + tensor var_3660_cast_fp16 = transpose(perm = var_3659, x = context_21_cast_fp16)[name = tensor("transpose_169")]; + tensor input_979_cast_fp16 = reshape(shape = var_3664, x = var_3660_cast_fp16)[name = tensor("input_979_cast_fp16")]; + tensor model_transformer_encoder_layers_5_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224148096)))]; + tensor model_transformer_encoder_layers_5_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224221888)))]; + tensor linear_187_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_5_first_sub_layer_out_projection_weight_to_fp16, x = input_979_cast_fp16)[name = tensor("linear_187_cast_fp16")]; + tensor input_983_cast_fp16 = add(x = linear_187_cast_fp16, y = input_975_cast_fp16)[name = tensor("input_983_cast_fp16")]; tensor input_985_axes_0 = const()[name = tensor("input_985_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_5_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219069568)))]; - tensor model_transformer_encoder_layers_5_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219070016)))]; - tensor input_985_cast_fp16 = layer_norm(axes = input_985_axes_0, beta = model_transformer_encoder_layers_5_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_5_layer_norm_1_weight_to_fp16, x = input_983_cast_fp16)[name = tensor("input_985_cast_fp16")]; - tensor model_transformer_encoder_layers_5_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219070464)))]; - tensor model_transformer_encoder_layers_5_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219365440)))]; - tensor linear_188_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_5_second_sub_layer_dense_in_weight_to_fp16, x = input_985_cast_fp16)[name = tensor("linear_188_cast_fp16")]; - tensor input_987_cast_fp16 = relu(x = linear_188_cast_fp16)[name = tensor("input_987_cast_fp16")]; - tensor model_transformer_encoder_layers_5_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219367040)))]; - tensor model_transformer_encoder_layers_5_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219662016)))]; - tensor linear_189_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_5_second_sub_layer_dense_out_weight_to_fp16, x = input_987_cast_fp16)[name = tensor("linear_189_cast_fp16")]; - tensor input_991_cast_fp16 = add(x = linear_189_cast_fp16, y = input_985_cast_fp16)[name = tensor("input_991_cast_fp16")]; + tensor model_transformer_encoder_layers_5_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224222336)))]; + tensor model_transformer_encoder_layers_5_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224222784)))]; + tensor input_985_cast_fp16 = layer_norm(axes = input_985_axes_0, beta = model_transformer_encoder_layers_5_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_5_layer_norm_1_weight_to_fp16, x = input_983_cast_fp16)[name = tensor("input_985_cast_fp16")]; + tensor model_transformer_encoder_layers_5_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224223232)))]; + tensor model_transformer_encoder_layers_5_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224518208)))]; + tensor linear_188_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_5_second_sub_layer_dense_in_weight_to_fp16, x = input_985_cast_fp16)[name = tensor("linear_188_cast_fp16")]; + tensor input_987_cast_fp16 = relu(x = linear_188_cast_fp16)[name = tensor("input_987_cast_fp16")]; + tensor model_transformer_encoder_layers_5_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224519808)))]; + tensor model_transformer_encoder_layers_5_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224814784)))]; + tensor linear_189_cast_fp16 = linear(bias = model_transformer_encoder_layers_5_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_5_second_sub_layer_dense_out_weight_to_fp16, x = input_987_cast_fp16)[name = tensor("linear_189_cast_fp16")]; + tensor input_991_cast_fp16 = add(x = linear_189_cast_fp16, y = input_985_cast_fp16)[name = tensor("input_991_cast_fp16")]; tensor input_993_axes_0 = const()[name = tensor("input_993_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_5_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219662464)))]; - tensor model_transformer_encoder_layers_5_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219662912)))]; - tensor input_993_cast_fp16 = layer_norm(axes = input_993_axes_0, beta = model_transformer_encoder_layers_5_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_5_layer_norm_2_weight_to_fp16, x = input_991_cast_fp16)[name = tensor("input_993_cast_fp16")]; - tensor model_transformer_encoder_layers_6_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219663360)))]; - tensor model_transformer_encoder_layers_6_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219737152)))]; - tensor linear_190_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_query_net_weight_to_fp16, x = input_993_cast_fp16)[name = tensor("linear_190_cast_fp16")]; - tensor model_transformer_encoder_layers_6_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219737600)))]; - tensor model_transformer_encoder_layers_6_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219811392)))]; - tensor linear_191_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_key_net_weight_to_fp16, x = input_993_cast_fp16)[name = tensor("linear_191_cast_fp16")]; - tensor model_transformer_encoder_layers_6_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219811840)))]; - tensor model_transformer_encoder_layers_6_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219885632)))]; - tensor linear_192_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_value_net_weight_to_fp16, x = input_993_cast_fp16)[name = tensor("linear_192_cast_fp16")]; - tensor var_3715 = const()[name = tensor("op_3715"), val = tensor([1, 242, 8, 24])]; - tensor x_451_cast_fp16 = reshape(shape = var_3715, x = linear_190_cast_fp16)[name = tensor("x_451_cast_fp16")]; + tensor model_transformer_encoder_layers_5_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224815232)))]; + tensor model_transformer_encoder_layers_5_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_5_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224815680)))]; + tensor input_993_cast_fp16 = layer_norm(axes = input_993_axes_0, beta = model_transformer_encoder_layers_5_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_5_layer_norm_2_weight_to_fp16, x = input_991_cast_fp16)[name = tensor("input_993_cast_fp16")]; + tensor model_transformer_encoder_layers_6_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224816128)))]; + tensor model_transformer_encoder_layers_6_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224889920)))]; + tensor linear_190_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_query_net_weight_to_fp16, x = input_993_cast_fp16)[name = tensor("linear_190_cast_fp16")]; + tensor model_transformer_encoder_layers_6_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224890368)))]; + tensor model_transformer_encoder_layers_6_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224964160)))]; + tensor linear_191_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_key_net_weight_to_fp16, x = input_993_cast_fp16)[name = tensor("linear_191_cast_fp16")]; + tensor model_transformer_encoder_layers_6_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224964608)))]; + tensor model_transformer_encoder_layers_6_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225038400)))]; + tensor linear_192_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_value_net_weight_to_fp16, x = input_993_cast_fp16)[name = tensor("linear_192_cast_fp16")]; + tensor var_3715 = const()[name = tensor("op_3715"), val = tensor([1, 390, 8, 24])]; + tensor x_451_cast_fp16 = reshape(shape = var_3715, x = linear_190_cast_fp16)[name = tensor("x_451_cast_fp16")]; tensor _inversed_query_47_y_0_to_fp16 = const()[name = tensor("_inversed_query_47_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_47_cast_fp16 = mul(x = x_451_cast_fp16, y = _inversed_query_47_y_0_to_fp16)[name = tensor("_inversed_query_47_cast_fp16")]; - tensor var_3723 = const()[name = tensor("op_3723"), val = tensor([1, 242, 8, 24])]; - tensor x_455_cast_fp16 = reshape(shape = var_3723, x = linear_191_cast_fp16)[name = tensor("x_455_cast_fp16")]; + tensor _inversed_query_47_cast_fp16 = mul(x = x_451_cast_fp16, y = _inversed_query_47_y_0_to_fp16)[name = tensor("_inversed_query_47_cast_fp16")]; + tensor var_3723 = const()[name = tensor("op_3723"), val = tensor([1, 390, 8, 24])]; + tensor x_455_cast_fp16 = reshape(shape = var_3723, x = linear_191_cast_fp16)[name = tensor("x_455_cast_fp16")]; tensor _inversed_key_13_y_0_to_fp16 = const()[name = tensor("_inversed_key_13_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_13_cast_fp16 = mul(x = x_455_cast_fp16, y = _inversed_key_13_y_0_to_fp16)[name = tensor("_inversed_key_13_cast_fp16")]; - tensor var_3731 = const()[name = tensor("op_3731"), val = tensor([1, 242, 8, 24])]; - tensor x_459_cast_fp16 = reshape(shape = var_3731, x = linear_192_cast_fp16)[name = tensor("x_459_cast_fp16")]; + tensor _inversed_key_13_cast_fp16 = mul(x = x_455_cast_fp16, y = _inversed_key_13_y_0_to_fp16)[name = tensor("_inversed_key_13_cast_fp16")]; + tensor var_3731 = const()[name = tensor("op_3731"), val = tensor([1, 390, 8, 24])]; + tensor x_459_cast_fp16 = reshape(shape = var_3731, x = linear_192_cast_fp16)[name = tensor("x_459_cast_fp16")]; tensor var_3733 = const()[name = tensor("op_3733"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_25_transpose_x_1 = const()[name = tensor("attention_scores_25_transpose_x_1"), val = tensor(false)]; tensor attention_scores_25_transpose_y_1 = const()[name = tensor("attention_scores_25_transpose_y_1"), val = tensor(true)]; tensor transpose_97_perm_0 = const()[name = tensor("transpose_97_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_98_perm_0 = const()[name = tensor("transpose_98_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_98 = transpose(perm = transpose_98_perm_0, x = _inversed_key_13_cast_fp16)[name = tensor("transpose_166")]; - tensor transpose_97 = transpose(perm = transpose_97_perm_0, x = _inversed_query_47_cast_fp16)[name = tensor("transpose_167")]; - tensor attention_scores_25_cast_fp16 = matmul(transpose_x = attention_scores_25_transpose_x_1, transpose_y = attention_scores_25_transpose_y_1, x = transpose_97, y = transpose_98)[name = tensor("attention_scores_25_cast_fp16")]; - tensor attention_scores_27_cast_fp16 = add(x = attention_scores_25_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_27_cast_fp16")]; - tensor input_995_cast_fp16 = softmax(axis = var_3111, x = attention_scores_27_cast_fp16)[name = tensor("input_995_cast_fp16")]; + tensor transpose_98 = transpose(perm = transpose_98_perm_0, x = _inversed_key_13_cast_fp16)[name = tensor("transpose_166")]; + tensor transpose_97 = transpose(perm = transpose_97_perm_0, x = _inversed_query_47_cast_fp16)[name = tensor("transpose_167")]; + tensor attention_scores_25_cast_fp16 = matmul(transpose_x = attention_scores_25_transpose_x_1, transpose_y = attention_scores_25_transpose_y_1, x = transpose_97, y = transpose_98)[name = tensor("attention_scores_25_cast_fp16")]; + tensor attention_scores_27_cast_fp16 = add(x = attention_scores_25_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_27_cast_fp16")]; + tensor input_995_cast_fp16 = softmax(axis = var_3111, x = attention_scores_27_cast_fp16)[name = tensor("input_995_cast_fp16")]; tensor context_25_transpose_x_0 = const()[name = tensor("context_25_transpose_x_0"), val = tensor(false)]; tensor context_25_transpose_y_0 = const()[name = tensor("context_25_transpose_y_0"), val = tensor(false)]; - tensor value_47_cast_fp16 = transpose(perm = var_3733, x = x_459_cast_fp16)[name = tensor("transpose_168")]; - tensor context_25_cast_fp16 = matmul(transpose_x = context_25_transpose_x_0, transpose_y = context_25_transpose_y_0, x = input_995_cast_fp16, y = value_47_cast_fp16)[name = tensor("context_25_cast_fp16")]; + tensor value_47_cast_fp16 = transpose(perm = var_3733, x = x_459_cast_fp16)[name = tensor("transpose_168")]; + tensor context_25_cast_fp16 = matmul(transpose_x = context_25_transpose_x_0, transpose_y = context_25_transpose_y_0, x = input_995_cast_fp16, y = value_47_cast_fp16)[name = tensor("context_25_cast_fp16")]; tensor var_3747 = const()[name = tensor("op_3747"), val = tensor([0, 2, 1, 3])]; - tensor var_3752 = const()[name = tensor("op_3752"), val = tensor([1, 242, 192])]; - tensor var_3748_cast_fp16 = transpose(perm = var_3747, x = context_25_cast_fp16)[name = tensor("transpose_165")]; - tensor input_997_cast_fp16 = reshape(shape = var_3752, x = var_3748_cast_fp16)[name = tensor("input_997_cast_fp16")]; - tensor model_transformer_encoder_layers_6_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219886080)))]; - tensor model_transformer_encoder_layers_6_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219959872)))]; - tensor linear_193_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_out_projection_weight_to_fp16, x = input_997_cast_fp16)[name = tensor("linear_193_cast_fp16")]; - tensor input_1001_cast_fp16 = add(x = linear_193_cast_fp16, y = input_993_cast_fp16)[name = tensor("input_1001_cast_fp16")]; + tensor var_3752 = const()[name = tensor("op_3752"), val = tensor([1, 390, 192])]; + tensor var_3748_cast_fp16 = transpose(perm = var_3747, x = context_25_cast_fp16)[name = tensor("transpose_165")]; + tensor input_997_cast_fp16 = reshape(shape = var_3752, x = var_3748_cast_fp16)[name = tensor("input_997_cast_fp16")]; + tensor model_transformer_encoder_layers_6_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225038848)))]; + tensor model_transformer_encoder_layers_6_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225112640)))]; + tensor linear_193_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_6_first_sub_layer_out_projection_weight_to_fp16, x = input_997_cast_fp16)[name = tensor("linear_193_cast_fp16")]; + tensor input_1001_cast_fp16 = add(x = linear_193_cast_fp16, y = input_993_cast_fp16)[name = tensor("input_1001_cast_fp16")]; tensor input_1003_axes_0 = const()[name = tensor("input_1003_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_6_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219960320)))]; - tensor model_transformer_encoder_layers_6_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219960768)))]; - tensor input_1003_cast_fp16 = layer_norm(axes = input_1003_axes_0, beta = model_transformer_encoder_layers_6_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_6_layer_norm_1_weight_to_fp16, x = input_1001_cast_fp16)[name = tensor("input_1003_cast_fp16")]; - tensor model_transformer_encoder_layers_6_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(219961216)))]; - tensor model_transformer_encoder_layers_6_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220256192)))]; - tensor linear_194_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_6_second_sub_layer_dense_in_weight_to_fp16, x = input_1003_cast_fp16)[name = tensor("linear_194_cast_fp16")]; - tensor input_1005_cast_fp16 = relu(x = linear_194_cast_fp16)[name = tensor("input_1005_cast_fp16")]; - tensor model_transformer_encoder_layers_6_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220257792)))]; - tensor model_transformer_encoder_layers_6_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220552768)))]; - tensor linear_195_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_6_second_sub_layer_dense_out_weight_to_fp16, x = input_1005_cast_fp16)[name = tensor("linear_195_cast_fp16")]; - tensor input_1009_cast_fp16 = add(x = linear_195_cast_fp16, y = input_1003_cast_fp16)[name = tensor("input_1009_cast_fp16")]; + tensor model_transformer_encoder_layers_6_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225113088)))]; + tensor model_transformer_encoder_layers_6_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225113536)))]; + tensor input_1003_cast_fp16 = layer_norm(axes = input_1003_axes_0, beta = model_transformer_encoder_layers_6_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_6_layer_norm_1_weight_to_fp16, x = input_1001_cast_fp16)[name = tensor("input_1003_cast_fp16")]; + tensor model_transformer_encoder_layers_6_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225113984)))]; + tensor model_transformer_encoder_layers_6_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225408960)))]; + tensor linear_194_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_6_second_sub_layer_dense_in_weight_to_fp16, x = input_1003_cast_fp16)[name = tensor("linear_194_cast_fp16")]; + tensor input_1005_cast_fp16 = relu(x = linear_194_cast_fp16)[name = tensor("input_1005_cast_fp16")]; + tensor model_transformer_encoder_layers_6_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225410560)))]; + tensor model_transformer_encoder_layers_6_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225705536)))]; + tensor linear_195_cast_fp16 = linear(bias = model_transformer_encoder_layers_6_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_6_second_sub_layer_dense_out_weight_to_fp16, x = input_1005_cast_fp16)[name = tensor("linear_195_cast_fp16")]; + tensor input_1009_cast_fp16 = add(x = linear_195_cast_fp16, y = input_1003_cast_fp16)[name = tensor("input_1009_cast_fp16")]; tensor input_1011_axes_0 = const()[name = tensor("input_1011_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_6_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220553216)))]; - tensor model_transformer_encoder_layers_6_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220553664)))]; - tensor input_1011_cast_fp16 = layer_norm(axes = input_1011_axes_0, beta = model_transformer_encoder_layers_6_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_6_layer_norm_2_weight_to_fp16, x = input_1009_cast_fp16)[name = tensor("input_1011_cast_fp16")]; - tensor model_transformer_encoder_layers_7_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220554112)))]; - tensor model_transformer_encoder_layers_7_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220627904)))]; - tensor linear_196_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_query_net_weight_to_fp16, x = input_1011_cast_fp16)[name = tensor("linear_196_cast_fp16")]; - tensor model_transformer_encoder_layers_7_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220628352)))]; - tensor model_transformer_encoder_layers_7_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220702144)))]; - tensor linear_197_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_key_net_weight_to_fp16, x = input_1011_cast_fp16)[name = tensor("linear_197_cast_fp16")]; - tensor model_transformer_encoder_layers_7_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220702592)))]; - tensor model_transformer_encoder_layers_7_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220776384)))]; - tensor linear_198_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_value_net_weight_to_fp16, x = input_1011_cast_fp16)[name = tensor("linear_198_cast_fp16")]; - tensor var_3803 = const()[name = tensor("op_3803"), val = tensor([1, 242, 8, 24])]; - tensor x_463_cast_fp16 = reshape(shape = var_3803, x = linear_196_cast_fp16)[name = tensor("x_463_cast_fp16")]; + tensor model_transformer_encoder_layers_6_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225705984)))]; + tensor model_transformer_encoder_layers_6_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_6_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225706432)))]; + tensor input_1011_cast_fp16 = layer_norm(axes = input_1011_axes_0, beta = model_transformer_encoder_layers_6_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_6_layer_norm_2_weight_to_fp16, x = input_1009_cast_fp16)[name = tensor("input_1011_cast_fp16")]; + tensor model_transformer_encoder_layers_7_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225706880)))]; + tensor model_transformer_encoder_layers_7_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225780672)))]; + tensor linear_196_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_query_net_weight_to_fp16, x = input_1011_cast_fp16)[name = tensor("linear_196_cast_fp16")]; + tensor model_transformer_encoder_layers_7_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225781120)))]; + tensor model_transformer_encoder_layers_7_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225854912)))]; + tensor linear_197_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_key_net_weight_to_fp16, x = input_1011_cast_fp16)[name = tensor("linear_197_cast_fp16")]; + tensor model_transformer_encoder_layers_7_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225855360)))]; + tensor model_transformer_encoder_layers_7_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225929152)))]; + tensor linear_198_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_value_net_weight_to_fp16, x = input_1011_cast_fp16)[name = tensor("linear_198_cast_fp16")]; + tensor var_3803 = const()[name = tensor("op_3803"), val = tensor([1, 390, 8, 24])]; + tensor x_463_cast_fp16 = reshape(shape = var_3803, x = linear_196_cast_fp16)[name = tensor("x_463_cast_fp16")]; tensor _inversed_query_49_y_0_to_fp16 = const()[name = tensor("_inversed_query_49_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_49_cast_fp16 = mul(x = x_463_cast_fp16, y = _inversed_query_49_y_0_to_fp16)[name = tensor("_inversed_query_49_cast_fp16")]; - tensor var_3811 = const()[name = tensor("op_3811"), val = tensor([1, 242, 8, 24])]; - tensor x_467_cast_fp16 = reshape(shape = var_3811, x = linear_197_cast_fp16)[name = tensor("x_467_cast_fp16")]; + tensor _inversed_query_49_cast_fp16 = mul(x = x_463_cast_fp16, y = _inversed_query_49_y_0_to_fp16)[name = tensor("_inversed_query_49_cast_fp16")]; + tensor var_3811 = const()[name = tensor("op_3811"), val = tensor([1, 390, 8, 24])]; + tensor x_467_cast_fp16 = reshape(shape = var_3811, x = linear_197_cast_fp16)[name = tensor("x_467_cast_fp16")]; tensor _inversed_key_15_y_0_to_fp16 = const()[name = tensor("_inversed_key_15_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_15_cast_fp16 = mul(x = x_467_cast_fp16, y = _inversed_key_15_y_0_to_fp16)[name = tensor("_inversed_key_15_cast_fp16")]; - tensor var_3819 = const()[name = tensor("op_3819"), val = tensor([1, 242, 8, 24])]; - tensor x_471_cast_fp16 = reshape(shape = var_3819, x = linear_198_cast_fp16)[name = tensor("x_471_cast_fp16")]; + tensor _inversed_key_15_cast_fp16 = mul(x = x_467_cast_fp16, y = _inversed_key_15_y_0_to_fp16)[name = tensor("_inversed_key_15_cast_fp16")]; + tensor var_3819 = const()[name = tensor("op_3819"), val = tensor([1, 390, 8, 24])]; + tensor x_471_cast_fp16 = reshape(shape = var_3819, x = linear_198_cast_fp16)[name = tensor("x_471_cast_fp16")]; tensor var_3821 = const()[name = tensor("op_3821"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_29_transpose_x_1 = const()[name = tensor("attention_scores_29_transpose_x_1"), val = tensor(false)]; tensor attention_scores_29_transpose_y_1 = const()[name = tensor("attention_scores_29_transpose_y_1"), val = tensor(true)]; tensor transpose_99_perm_0 = const()[name = tensor("transpose_99_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_100_perm_0 = const()[name = tensor("transpose_100_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_100 = transpose(perm = transpose_100_perm_0, x = _inversed_key_15_cast_fp16)[name = tensor("transpose_162")]; - tensor transpose_99 = transpose(perm = transpose_99_perm_0, x = _inversed_query_49_cast_fp16)[name = tensor("transpose_163")]; - tensor attention_scores_29_cast_fp16 = matmul(transpose_x = attention_scores_29_transpose_x_1, transpose_y = attention_scores_29_transpose_y_1, x = transpose_99, y = transpose_100)[name = tensor("attention_scores_29_cast_fp16")]; - tensor attention_scores_31_cast_fp16 = add(x = attention_scores_29_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_31_cast_fp16")]; - tensor input_1013_cast_fp16 = softmax(axis = var_3111, x = attention_scores_31_cast_fp16)[name = tensor("input_1013_cast_fp16")]; + tensor transpose_100 = transpose(perm = transpose_100_perm_0, x = _inversed_key_15_cast_fp16)[name = tensor("transpose_162")]; + tensor transpose_99 = transpose(perm = transpose_99_perm_0, x = _inversed_query_49_cast_fp16)[name = tensor("transpose_163")]; + tensor attention_scores_29_cast_fp16 = matmul(transpose_x = attention_scores_29_transpose_x_1, transpose_y = attention_scores_29_transpose_y_1, x = transpose_99, y = transpose_100)[name = tensor("attention_scores_29_cast_fp16")]; + tensor attention_scores_31_cast_fp16 = add(x = attention_scores_29_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_31_cast_fp16")]; + tensor input_1013_cast_fp16 = softmax(axis = var_3111, x = attention_scores_31_cast_fp16)[name = tensor("input_1013_cast_fp16")]; tensor context_29_transpose_x_0 = const()[name = tensor("context_29_transpose_x_0"), val = tensor(false)]; tensor context_29_transpose_y_0 = const()[name = tensor("context_29_transpose_y_0"), val = tensor(false)]; - tensor value_49_cast_fp16 = transpose(perm = var_3821, x = x_471_cast_fp16)[name = tensor("transpose_164")]; - tensor context_29_cast_fp16 = matmul(transpose_x = context_29_transpose_x_0, transpose_y = context_29_transpose_y_0, x = input_1013_cast_fp16, y = value_49_cast_fp16)[name = tensor("context_29_cast_fp16")]; + tensor value_49_cast_fp16 = transpose(perm = var_3821, x = x_471_cast_fp16)[name = tensor("transpose_164")]; + tensor context_29_cast_fp16 = matmul(transpose_x = context_29_transpose_x_0, transpose_y = context_29_transpose_y_0, x = input_1013_cast_fp16, y = value_49_cast_fp16)[name = tensor("context_29_cast_fp16")]; tensor var_3835 = const()[name = tensor("op_3835"), val = tensor([0, 2, 1, 3])]; - tensor var_3840 = const()[name = tensor("op_3840"), val = tensor([1, 242, 192])]; - tensor var_3836_cast_fp16 = transpose(perm = var_3835, x = context_29_cast_fp16)[name = tensor("transpose_161")]; - tensor input_1015_cast_fp16 = reshape(shape = var_3840, x = var_3836_cast_fp16)[name = tensor("input_1015_cast_fp16")]; - tensor model_transformer_encoder_layers_7_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220776832)))]; - tensor model_transformer_encoder_layers_7_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220850624)))]; - tensor linear_199_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_out_projection_weight_to_fp16, x = input_1015_cast_fp16)[name = tensor("linear_199_cast_fp16")]; - tensor input_1019_cast_fp16 = add(x = linear_199_cast_fp16, y = input_1011_cast_fp16)[name = tensor("input_1019_cast_fp16")]; + tensor var_3840 = const()[name = tensor("op_3840"), val = tensor([1, 390, 192])]; + tensor var_3836_cast_fp16 = transpose(perm = var_3835, x = context_29_cast_fp16)[name = tensor("transpose_161")]; + tensor input_1015_cast_fp16 = reshape(shape = var_3840, x = var_3836_cast_fp16)[name = tensor("input_1015_cast_fp16")]; + tensor model_transformer_encoder_layers_7_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225929600)))]; + tensor model_transformer_encoder_layers_7_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226003392)))]; + tensor linear_199_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_7_first_sub_layer_out_projection_weight_to_fp16, x = input_1015_cast_fp16)[name = tensor("linear_199_cast_fp16")]; + tensor input_1019_cast_fp16 = add(x = linear_199_cast_fp16, y = input_1011_cast_fp16)[name = tensor("input_1019_cast_fp16")]; tensor input_1021_axes_0 = const()[name = tensor("input_1021_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_7_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220851072)))]; - tensor model_transformer_encoder_layers_7_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220851520)))]; - tensor input_1021_cast_fp16 = layer_norm(axes = input_1021_axes_0, beta = model_transformer_encoder_layers_7_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_7_layer_norm_1_weight_to_fp16, x = input_1019_cast_fp16)[name = tensor("input_1021_cast_fp16")]; - tensor model_transformer_encoder_layers_7_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(220851968)))]; - tensor model_transformer_encoder_layers_7_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221146944)))]; - tensor linear_200_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_7_second_sub_layer_dense_in_weight_to_fp16, x = input_1021_cast_fp16)[name = tensor("linear_200_cast_fp16")]; - tensor input_1023_cast_fp16 = relu(x = linear_200_cast_fp16)[name = tensor("input_1023_cast_fp16")]; - tensor model_transformer_encoder_layers_7_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221148544)))]; - tensor model_transformer_encoder_layers_7_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221443520)))]; - tensor linear_201_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_7_second_sub_layer_dense_out_weight_to_fp16, x = input_1023_cast_fp16)[name = tensor("linear_201_cast_fp16")]; - tensor input_1027_cast_fp16 = add(x = linear_201_cast_fp16, y = input_1021_cast_fp16)[name = tensor("input_1027_cast_fp16")]; + tensor model_transformer_encoder_layers_7_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226003840)))]; + tensor model_transformer_encoder_layers_7_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226004288)))]; + tensor input_1021_cast_fp16 = layer_norm(axes = input_1021_axes_0, beta = model_transformer_encoder_layers_7_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_7_layer_norm_1_weight_to_fp16, x = input_1019_cast_fp16)[name = tensor("input_1021_cast_fp16")]; + tensor model_transformer_encoder_layers_7_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226004736)))]; + tensor model_transformer_encoder_layers_7_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226299712)))]; + tensor linear_200_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_7_second_sub_layer_dense_in_weight_to_fp16, x = input_1021_cast_fp16)[name = tensor("linear_200_cast_fp16")]; + tensor input_1023_cast_fp16 = relu(x = linear_200_cast_fp16)[name = tensor("input_1023_cast_fp16")]; + tensor model_transformer_encoder_layers_7_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226301312)))]; + tensor model_transformer_encoder_layers_7_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226596288)))]; + tensor linear_201_cast_fp16 = linear(bias = model_transformer_encoder_layers_7_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_7_second_sub_layer_dense_out_weight_to_fp16, x = input_1023_cast_fp16)[name = tensor("linear_201_cast_fp16")]; + tensor input_1027_cast_fp16 = add(x = linear_201_cast_fp16, y = input_1021_cast_fp16)[name = tensor("input_1027_cast_fp16")]; tensor input_1029_axes_0 = const()[name = tensor("input_1029_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_7_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221443968)))]; - tensor model_transformer_encoder_layers_7_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221444416)))]; - tensor input_1029_cast_fp16 = layer_norm(axes = input_1029_axes_0, beta = model_transformer_encoder_layers_7_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_7_layer_norm_2_weight_to_fp16, x = input_1027_cast_fp16)[name = tensor("input_1029_cast_fp16")]; - tensor model_transformer_encoder_layers_8_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221444864)))]; - tensor model_transformer_encoder_layers_8_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221518656)))]; - tensor linear_202_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_query_net_weight_to_fp16, x = input_1029_cast_fp16)[name = tensor("linear_202_cast_fp16")]; - tensor model_transformer_encoder_layers_8_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221519104)))]; - tensor model_transformer_encoder_layers_8_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221592896)))]; - tensor linear_203_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_key_net_weight_to_fp16, x = input_1029_cast_fp16)[name = tensor("linear_203_cast_fp16")]; - tensor model_transformer_encoder_layers_8_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221593344)))]; - tensor model_transformer_encoder_layers_8_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221667136)))]; - tensor linear_204_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_value_net_weight_to_fp16, x = input_1029_cast_fp16)[name = tensor("linear_204_cast_fp16")]; - tensor var_3891 = const()[name = tensor("op_3891"), val = tensor([1, 242, 8, 24])]; - tensor x_475_cast_fp16 = reshape(shape = var_3891, x = linear_202_cast_fp16)[name = tensor("x_475_cast_fp16")]; + tensor model_transformer_encoder_layers_7_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226596736)))]; + tensor model_transformer_encoder_layers_7_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_7_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226597184)))]; + tensor input_1029_cast_fp16 = layer_norm(axes = input_1029_axes_0, beta = model_transformer_encoder_layers_7_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_7_layer_norm_2_weight_to_fp16, x = input_1027_cast_fp16)[name = tensor("input_1029_cast_fp16")]; + tensor model_transformer_encoder_layers_8_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226597632)))]; + tensor model_transformer_encoder_layers_8_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226671424)))]; + tensor linear_202_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_query_net_weight_to_fp16, x = input_1029_cast_fp16)[name = tensor("linear_202_cast_fp16")]; + tensor model_transformer_encoder_layers_8_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226671872)))]; + tensor model_transformer_encoder_layers_8_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226745664)))]; + tensor linear_203_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_key_net_weight_to_fp16, x = input_1029_cast_fp16)[name = tensor("linear_203_cast_fp16")]; + tensor model_transformer_encoder_layers_8_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226746112)))]; + tensor model_transformer_encoder_layers_8_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226819904)))]; + tensor linear_204_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_value_net_weight_to_fp16, x = input_1029_cast_fp16)[name = tensor("linear_204_cast_fp16")]; + tensor var_3891 = const()[name = tensor("op_3891"), val = tensor([1, 390, 8, 24])]; + tensor x_475_cast_fp16 = reshape(shape = var_3891, x = linear_202_cast_fp16)[name = tensor("x_475_cast_fp16")]; tensor _inversed_query_51_y_0_to_fp16 = const()[name = tensor("_inversed_query_51_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_51_cast_fp16 = mul(x = x_475_cast_fp16, y = _inversed_query_51_y_0_to_fp16)[name = tensor("_inversed_query_51_cast_fp16")]; - tensor var_3899 = const()[name = tensor("op_3899"), val = tensor([1, 242, 8, 24])]; - tensor x_479_cast_fp16 = reshape(shape = var_3899, x = linear_203_cast_fp16)[name = tensor("x_479_cast_fp16")]; + tensor _inversed_query_51_cast_fp16 = mul(x = x_475_cast_fp16, y = _inversed_query_51_y_0_to_fp16)[name = tensor("_inversed_query_51_cast_fp16")]; + tensor var_3899 = const()[name = tensor("op_3899"), val = tensor([1, 390, 8, 24])]; + tensor x_479_cast_fp16 = reshape(shape = var_3899, x = linear_203_cast_fp16)[name = tensor("x_479_cast_fp16")]; tensor _inversed_key_17_y_0_to_fp16 = const()[name = tensor("_inversed_key_17_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_17_cast_fp16 = mul(x = x_479_cast_fp16, y = _inversed_key_17_y_0_to_fp16)[name = tensor("_inversed_key_17_cast_fp16")]; - tensor var_3907 = const()[name = tensor("op_3907"), val = tensor([1, 242, 8, 24])]; - tensor x_483_cast_fp16 = reshape(shape = var_3907, x = linear_204_cast_fp16)[name = tensor("x_483_cast_fp16")]; + tensor _inversed_key_17_cast_fp16 = mul(x = x_479_cast_fp16, y = _inversed_key_17_y_0_to_fp16)[name = tensor("_inversed_key_17_cast_fp16")]; + tensor var_3907 = const()[name = tensor("op_3907"), val = tensor([1, 390, 8, 24])]; + tensor x_483_cast_fp16 = reshape(shape = var_3907, x = linear_204_cast_fp16)[name = tensor("x_483_cast_fp16")]; tensor var_3909 = const()[name = tensor("op_3909"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_33_transpose_x_1 = const()[name = tensor("attention_scores_33_transpose_x_1"), val = tensor(false)]; tensor attention_scores_33_transpose_y_1 = const()[name = tensor("attention_scores_33_transpose_y_1"), val = tensor(true)]; tensor transpose_101_perm_0 = const()[name = tensor("transpose_101_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_102_perm_0 = const()[name = tensor("transpose_102_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_102 = transpose(perm = transpose_102_perm_0, x = _inversed_key_17_cast_fp16)[name = tensor("transpose_158")]; - tensor transpose_101 = transpose(perm = transpose_101_perm_0, x = _inversed_query_51_cast_fp16)[name = tensor("transpose_159")]; - tensor attention_scores_33_cast_fp16 = matmul(transpose_x = attention_scores_33_transpose_x_1, transpose_y = attention_scores_33_transpose_y_1, x = transpose_101, y = transpose_102)[name = tensor("attention_scores_33_cast_fp16")]; - tensor attention_scores_35_cast_fp16 = add(x = attention_scores_33_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_35_cast_fp16")]; - tensor input_1031_cast_fp16 = softmax(axis = var_3111, x = attention_scores_35_cast_fp16)[name = tensor("input_1031_cast_fp16")]; + tensor transpose_102 = transpose(perm = transpose_102_perm_0, x = _inversed_key_17_cast_fp16)[name = tensor("transpose_158")]; + tensor transpose_101 = transpose(perm = transpose_101_perm_0, x = _inversed_query_51_cast_fp16)[name = tensor("transpose_159")]; + tensor attention_scores_33_cast_fp16 = matmul(transpose_x = attention_scores_33_transpose_x_1, transpose_y = attention_scores_33_transpose_y_1, x = transpose_101, y = transpose_102)[name = tensor("attention_scores_33_cast_fp16")]; + tensor attention_scores_35_cast_fp16 = add(x = attention_scores_33_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_35_cast_fp16")]; + tensor input_1031_cast_fp16 = softmax(axis = var_3111, x = attention_scores_35_cast_fp16)[name = tensor("input_1031_cast_fp16")]; tensor context_33_transpose_x_0 = const()[name = tensor("context_33_transpose_x_0"), val = tensor(false)]; tensor context_33_transpose_y_0 = const()[name = tensor("context_33_transpose_y_0"), val = tensor(false)]; - tensor value_51_cast_fp16 = transpose(perm = var_3909, x = x_483_cast_fp16)[name = tensor("transpose_160")]; - tensor context_33_cast_fp16 = matmul(transpose_x = context_33_transpose_x_0, transpose_y = context_33_transpose_y_0, x = input_1031_cast_fp16, y = value_51_cast_fp16)[name = tensor("context_33_cast_fp16")]; + tensor value_51_cast_fp16 = transpose(perm = var_3909, x = x_483_cast_fp16)[name = tensor("transpose_160")]; + tensor context_33_cast_fp16 = matmul(transpose_x = context_33_transpose_x_0, transpose_y = context_33_transpose_y_0, x = input_1031_cast_fp16, y = value_51_cast_fp16)[name = tensor("context_33_cast_fp16")]; tensor var_3923 = const()[name = tensor("op_3923"), val = tensor([0, 2, 1, 3])]; - tensor var_3928 = const()[name = tensor("op_3928"), val = tensor([1, 242, 192])]; - tensor var_3924_cast_fp16 = transpose(perm = var_3923, x = context_33_cast_fp16)[name = tensor("transpose_157")]; - tensor input_1033_cast_fp16 = reshape(shape = var_3928, x = var_3924_cast_fp16)[name = tensor("input_1033_cast_fp16")]; - tensor model_transformer_encoder_layers_8_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221667584)))]; - tensor model_transformer_encoder_layers_8_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221741376)))]; - tensor linear_205_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_out_projection_weight_to_fp16, x = input_1033_cast_fp16)[name = tensor("linear_205_cast_fp16")]; - tensor input_1037_cast_fp16 = add(x = linear_205_cast_fp16, y = input_1029_cast_fp16)[name = tensor("input_1037_cast_fp16")]; + tensor var_3928 = const()[name = tensor("op_3928"), val = tensor([1, 390, 192])]; + tensor var_3924_cast_fp16 = transpose(perm = var_3923, x = context_33_cast_fp16)[name = tensor("transpose_157")]; + tensor input_1033_cast_fp16 = reshape(shape = var_3928, x = var_3924_cast_fp16)[name = tensor("input_1033_cast_fp16")]; + tensor model_transformer_encoder_layers_8_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226820352)))]; + tensor model_transformer_encoder_layers_8_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226894144)))]; + tensor linear_205_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_8_first_sub_layer_out_projection_weight_to_fp16, x = input_1033_cast_fp16)[name = tensor("linear_205_cast_fp16")]; + tensor input_1037_cast_fp16 = add(x = linear_205_cast_fp16, y = input_1029_cast_fp16)[name = tensor("input_1037_cast_fp16")]; tensor input_1039_axes_0 = const()[name = tensor("input_1039_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_8_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221741824)))]; - tensor model_transformer_encoder_layers_8_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221742272)))]; - tensor input_1039_cast_fp16 = layer_norm(axes = input_1039_axes_0, beta = model_transformer_encoder_layers_8_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_8_layer_norm_1_weight_to_fp16, x = input_1037_cast_fp16)[name = tensor("input_1039_cast_fp16")]; - tensor model_transformer_encoder_layers_8_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(221742720)))]; - tensor model_transformer_encoder_layers_8_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222037696)))]; - tensor linear_206_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_8_second_sub_layer_dense_in_weight_to_fp16, x = input_1039_cast_fp16)[name = tensor("linear_206_cast_fp16")]; - tensor input_1041_cast_fp16 = relu(x = linear_206_cast_fp16)[name = tensor("input_1041_cast_fp16")]; - tensor model_transformer_encoder_layers_8_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222039296)))]; - tensor model_transformer_encoder_layers_8_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222334272)))]; - tensor linear_207_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_8_second_sub_layer_dense_out_weight_to_fp16, x = input_1041_cast_fp16)[name = tensor("linear_207_cast_fp16")]; - tensor input_1045_cast_fp16 = add(x = linear_207_cast_fp16, y = input_1039_cast_fp16)[name = tensor("input_1045_cast_fp16")]; + tensor model_transformer_encoder_layers_8_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226894592)))]; + tensor model_transformer_encoder_layers_8_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226895040)))]; + tensor input_1039_cast_fp16 = layer_norm(axes = input_1039_axes_0, beta = model_transformer_encoder_layers_8_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_8_layer_norm_1_weight_to_fp16, x = input_1037_cast_fp16)[name = tensor("input_1039_cast_fp16")]; + tensor model_transformer_encoder_layers_8_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226895488)))]; + tensor model_transformer_encoder_layers_8_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227190464)))]; + tensor linear_206_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_8_second_sub_layer_dense_in_weight_to_fp16, x = input_1039_cast_fp16)[name = tensor("linear_206_cast_fp16")]; + tensor input_1041_cast_fp16 = relu(x = linear_206_cast_fp16)[name = tensor("input_1041_cast_fp16")]; + tensor model_transformer_encoder_layers_8_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227192064)))]; + tensor model_transformer_encoder_layers_8_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227487040)))]; + tensor linear_207_cast_fp16 = linear(bias = model_transformer_encoder_layers_8_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_8_second_sub_layer_dense_out_weight_to_fp16, x = input_1041_cast_fp16)[name = tensor("linear_207_cast_fp16")]; + tensor input_1045_cast_fp16 = add(x = linear_207_cast_fp16, y = input_1039_cast_fp16)[name = tensor("input_1045_cast_fp16")]; tensor input_1047_axes_0 = const()[name = tensor("input_1047_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_8_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222334720)))]; - tensor model_transformer_encoder_layers_8_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222335168)))]; - tensor input_1047_cast_fp16 = layer_norm(axes = input_1047_axes_0, beta = model_transformer_encoder_layers_8_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_8_layer_norm_2_weight_to_fp16, x = input_1045_cast_fp16)[name = tensor("input_1047_cast_fp16")]; - tensor model_transformer_encoder_layers_9_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222335616)))]; - tensor model_transformer_encoder_layers_9_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222409408)))]; - tensor linear_208_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_query_net_weight_to_fp16, x = input_1047_cast_fp16)[name = tensor("linear_208_cast_fp16")]; - tensor model_transformer_encoder_layers_9_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222409856)))]; - tensor model_transformer_encoder_layers_9_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222483648)))]; - tensor linear_209_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_key_net_weight_to_fp16, x = input_1047_cast_fp16)[name = tensor("linear_209_cast_fp16")]; - tensor model_transformer_encoder_layers_9_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222484096)))]; - tensor model_transformer_encoder_layers_9_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222557888)))]; - tensor linear_210_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_value_net_weight_to_fp16, x = input_1047_cast_fp16)[name = tensor("linear_210_cast_fp16")]; - tensor var_3979 = const()[name = tensor("op_3979"), val = tensor([1, 242, 8, 24])]; - tensor x_487_cast_fp16 = reshape(shape = var_3979, x = linear_208_cast_fp16)[name = tensor("x_487_cast_fp16")]; + tensor model_transformer_encoder_layers_8_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227487488)))]; + tensor model_transformer_encoder_layers_8_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_8_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227487936)))]; + tensor input_1047_cast_fp16 = layer_norm(axes = input_1047_axes_0, beta = model_transformer_encoder_layers_8_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_8_layer_norm_2_weight_to_fp16, x = input_1045_cast_fp16)[name = tensor("input_1047_cast_fp16")]; + tensor model_transformer_encoder_layers_9_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227488384)))]; + tensor model_transformer_encoder_layers_9_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227562176)))]; + tensor linear_208_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_query_net_weight_to_fp16, x = input_1047_cast_fp16)[name = tensor("linear_208_cast_fp16")]; + tensor model_transformer_encoder_layers_9_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227562624)))]; + tensor model_transformer_encoder_layers_9_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227636416)))]; + tensor linear_209_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_key_net_weight_to_fp16, x = input_1047_cast_fp16)[name = tensor("linear_209_cast_fp16")]; + tensor model_transformer_encoder_layers_9_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227636864)))]; + tensor model_transformer_encoder_layers_9_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227710656)))]; + tensor linear_210_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_value_net_weight_to_fp16, x = input_1047_cast_fp16)[name = tensor("linear_210_cast_fp16")]; + tensor var_3979 = const()[name = tensor("op_3979"), val = tensor([1, 390, 8, 24])]; + tensor x_487_cast_fp16 = reshape(shape = var_3979, x = linear_208_cast_fp16)[name = tensor("x_487_cast_fp16")]; tensor _inversed_query_53_y_0_to_fp16 = const()[name = tensor("_inversed_query_53_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_53_cast_fp16 = mul(x = x_487_cast_fp16, y = _inversed_query_53_y_0_to_fp16)[name = tensor("_inversed_query_53_cast_fp16")]; - tensor var_3987 = const()[name = tensor("op_3987"), val = tensor([1, 242, 8, 24])]; - tensor x_491_cast_fp16 = reshape(shape = var_3987, x = linear_209_cast_fp16)[name = tensor("x_491_cast_fp16")]; + tensor _inversed_query_53_cast_fp16 = mul(x = x_487_cast_fp16, y = _inversed_query_53_y_0_to_fp16)[name = tensor("_inversed_query_53_cast_fp16")]; + tensor var_3987 = const()[name = tensor("op_3987"), val = tensor([1, 390, 8, 24])]; + tensor x_491_cast_fp16 = reshape(shape = var_3987, x = linear_209_cast_fp16)[name = tensor("x_491_cast_fp16")]; tensor _inversed_key_19_y_0_to_fp16 = const()[name = tensor("_inversed_key_19_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_19_cast_fp16 = mul(x = x_491_cast_fp16, y = _inversed_key_19_y_0_to_fp16)[name = tensor("_inversed_key_19_cast_fp16")]; - tensor var_3995 = const()[name = tensor("op_3995"), val = tensor([1, 242, 8, 24])]; - tensor x_495_cast_fp16 = reshape(shape = var_3995, x = linear_210_cast_fp16)[name = tensor("x_495_cast_fp16")]; + tensor _inversed_key_19_cast_fp16 = mul(x = x_491_cast_fp16, y = _inversed_key_19_y_0_to_fp16)[name = tensor("_inversed_key_19_cast_fp16")]; + tensor var_3995 = const()[name = tensor("op_3995"), val = tensor([1, 390, 8, 24])]; + tensor x_495_cast_fp16 = reshape(shape = var_3995, x = linear_210_cast_fp16)[name = tensor("x_495_cast_fp16")]; tensor var_3997 = const()[name = tensor("op_3997"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_37_transpose_x_1 = const()[name = tensor("attention_scores_37_transpose_x_1"), val = tensor(false)]; tensor attention_scores_37_transpose_y_1 = const()[name = tensor("attention_scores_37_transpose_y_1"), val = tensor(true)]; tensor transpose_103_perm_0 = const()[name = tensor("transpose_103_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_104_perm_0 = const()[name = tensor("transpose_104_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_104 = transpose(perm = transpose_104_perm_0, x = _inversed_key_19_cast_fp16)[name = tensor("transpose_154")]; - tensor transpose_103 = transpose(perm = transpose_103_perm_0, x = _inversed_query_53_cast_fp16)[name = tensor("transpose_155")]; - tensor attention_scores_37_cast_fp16 = matmul(transpose_x = attention_scores_37_transpose_x_1, transpose_y = attention_scores_37_transpose_y_1, x = transpose_103, y = transpose_104)[name = tensor("attention_scores_37_cast_fp16")]; - tensor attention_scores_39_cast_fp16 = add(x = attention_scores_37_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_39_cast_fp16")]; - tensor input_1049_cast_fp16 = softmax(axis = var_3111, x = attention_scores_39_cast_fp16)[name = tensor("input_1049_cast_fp16")]; + tensor transpose_104 = transpose(perm = transpose_104_perm_0, x = _inversed_key_19_cast_fp16)[name = tensor("transpose_154")]; + tensor transpose_103 = transpose(perm = transpose_103_perm_0, x = _inversed_query_53_cast_fp16)[name = tensor("transpose_155")]; + tensor attention_scores_37_cast_fp16 = matmul(transpose_x = attention_scores_37_transpose_x_1, transpose_y = attention_scores_37_transpose_y_1, x = transpose_103, y = transpose_104)[name = tensor("attention_scores_37_cast_fp16")]; + tensor attention_scores_39_cast_fp16 = add(x = attention_scores_37_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_39_cast_fp16")]; + tensor input_1049_cast_fp16 = softmax(axis = var_3111, x = attention_scores_39_cast_fp16)[name = tensor("input_1049_cast_fp16")]; tensor context_37_transpose_x_0 = const()[name = tensor("context_37_transpose_x_0"), val = tensor(false)]; tensor context_37_transpose_y_0 = const()[name = tensor("context_37_transpose_y_0"), val = tensor(false)]; - tensor value_53_cast_fp16 = transpose(perm = var_3997, x = x_495_cast_fp16)[name = tensor("transpose_156")]; - tensor context_37_cast_fp16 = matmul(transpose_x = context_37_transpose_x_0, transpose_y = context_37_transpose_y_0, x = input_1049_cast_fp16, y = value_53_cast_fp16)[name = tensor("context_37_cast_fp16")]; + tensor value_53_cast_fp16 = transpose(perm = var_3997, x = x_495_cast_fp16)[name = tensor("transpose_156")]; + tensor context_37_cast_fp16 = matmul(transpose_x = context_37_transpose_x_0, transpose_y = context_37_transpose_y_0, x = input_1049_cast_fp16, y = value_53_cast_fp16)[name = tensor("context_37_cast_fp16")]; tensor var_4011 = const()[name = tensor("op_4011"), val = tensor([0, 2, 1, 3])]; - tensor var_4016 = const()[name = tensor("op_4016"), val = tensor([1, 242, 192])]; - tensor var_4012_cast_fp16 = transpose(perm = var_4011, x = context_37_cast_fp16)[name = tensor("transpose_153")]; - tensor input_1051_cast_fp16 = reshape(shape = var_4016, x = var_4012_cast_fp16)[name = tensor("input_1051_cast_fp16")]; - tensor model_transformer_encoder_layers_9_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222558336)))]; - tensor model_transformer_encoder_layers_9_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222632128)))]; - tensor linear_211_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_out_projection_weight_to_fp16, x = input_1051_cast_fp16)[name = tensor("linear_211_cast_fp16")]; - tensor input_1055_cast_fp16 = add(x = linear_211_cast_fp16, y = input_1047_cast_fp16)[name = tensor("input_1055_cast_fp16")]; + tensor var_4016 = const()[name = tensor("op_4016"), val = tensor([1, 390, 192])]; + tensor var_4012_cast_fp16 = transpose(perm = var_4011, x = context_37_cast_fp16)[name = tensor("transpose_153")]; + tensor input_1051_cast_fp16 = reshape(shape = var_4016, x = var_4012_cast_fp16)[name = tensor("input_1051_cast_fp16")]; + tensor model_transformer_encoder_layers_9_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227711104)))]; + tensor model_transformer_encoder_layers_9_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227784896)))]; + tensor linear_211_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_9_first_sub_layer_out_projection_weight_to_fp16, x = input_1051_cast_fp16)[name = tensor("linear_211_cast_fp16")]; + tensor input_1055_cast_fp16 = add(x = linear_211_cast_fp16, y = input_1047_cast_fp16)[name = tensor("input_1055_cast_fp16")]; tensor input_1057_axes_0 = const()[name = tensor("input_1057_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_9_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222632576)))]; - tensor model_transformer_encoder_layers_9_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222633024)))]; - tensor input_1057_cast_fp16 = layer_norm(axes = input_1057_axes_0, beta = model_transformer_encoder_layers_9_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_9_layer_norm_1_weight_to_fp16, x = input_1055_cast_fp16)[name = tensor("input_1057_cast_fp16")]; - tensor model_transformer_encoder_layers_9_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222633472)))]; - tensor model_transformer_encoder_layers_9_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222928448)))]; - tensor linear_212_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_9_second_sub_layer_dense_in_weight_to_fp16, x = input_1057_cast_fp16)[name = tensor("linear_212_cast_fp16")]; - tensor input_1059_cast_fp16 = relu(x = linear_212_cast_fp16)[name = tensor("input_1059_cast_fp16")]; - tensor model_transformer_encoder_layers_9_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(222930048)))]; - tensor model_transformer_encoder_layers_9_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223225024)))]; - tensor linear_213_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_9_second_sub_layer_dense_out_weight_to_fp16, x = input_1059_cast_fp16)[name = tensor("linear_213_cast_fp16")]; - tensor input_1063_cast_fp16 = add(x = linear_213_cast_fp16, y = input_1057_cast_fp16)[name = tensor("input_1063_cast_fp16")]; + tensor model_transformer_encoder_layers_9_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227785344)))]; + tensor model_transformer_encoder_layers_9_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227785792)))]; + tensor input_1057_cast_fp16 = layer_norm(axes = input_1057_axes_0, beta = model_transformer_encoder_layers_9_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_9_layer_norm_1_weight_to_fp16, x = input_1055_cast_fp16)[name = tensor("input_1057_cast_fp16")]; + tensor model_transformer_encoder_layers_9_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227786240)))]; + tensor model_transformer_encoder_layers_9_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228081216)))]; + tensor linear_212_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_9_second_sub_layer_dense_in_weight_to_fp16, x = input_1057_cast_fp16)[name = tensor("linear_212_cast_fp16")]; + tensor input_1059_cast_fp16 = relu(x = linear_212_cast_fp16)[name = tensor("input_1059_cast_fp16")]; + tensor model_transformer_encoder_layers_9_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228082816)))]; + tensor model_transformer_encoder_layers_9_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228377792)))]; + tensor linear_213_cast_fp16 = linear(bias = model_transformer_encoder_layers_9_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_9_second_sub_layer_dense_out_weight_to_fp16, x = input_1059_cast_fp16)[name = tensor("linear_213_cast_fp16")]; + tensor input_1063_cast_fp16 = add(x = linear_213_cast_fp16, y = input_1057_cast_fp16)[name = tensor("input_1063_cast_fp16")]; tensor input_1065_axes_0 = const()[name = tensor("input_1065_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_9_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223225472)))]; - tensor model_transformer_encoder_layers_9_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223225920)))]; - tensor input_1065_cast_fp16 = layer_norm(axes = input_1065_axes_0, beta = model_transformer_encoder_layers_9_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_9_layer_norm_2_weight_to_fp16, x = input_1063_cast_fp16)[name = tensor("input_1065_cast_fp16")]; - tensor model_transformer_encoder_layers_10_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223226368)))]; - tensor model_transformer_encoder_layers_10_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223300160)))]; - tensor linear_214_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_query_net_weight_to_fp16, x = input_1065_cast_fp16)[name = tensor("linear_214_cast_fp16")]; - tensor model_transformer_encoder_layers_10_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223300608)))]; - tensor model_transformer_encoder_layers_10_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223374400)))]; - tensor linear_215_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_key_net_weight_to_fp16, x = input_1065_cast_fp16)[name = tensor("linear_215_cast_fp16")]; - tensor model_transformer_encoder_layers_10_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223374848)))]; - tensor model_transformer_encoder_layers_10_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223448640)))]; - tensor linear_216_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_value_net_weight_to_fp16, x = input_1065_cast_fp16)[name = tensor("linear_216_cast_fp16")]; - tensor var_4067 = const()[name = tensor("op_4067"), val = tensor([1, 242, 8, 24])]; - tensor x_499_cast_fp16 = reshape(shape = var_4067, x = linear_214_cast_fp16)[name = tensor("x_499_cast_fp16")]; + tensor model_transformer_encoder_layers_9_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228378240)))]; + tensor model_transformer_encoder_layers_9_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_9_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228378688)))]; + tensor input_1065_cast_fp16 = layer_norm(axes = input_1065_axes_0, beta = model_transformer_encoder_layers_9_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_9_layer_norm_2_weight_to_fp16, x = input_1063_cast_fp16)[name = tensor("input_1065_cast_fp16")]; + tensor model_transformer_encoder_layers_10_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228379136)))]; + tensor model_transformer_encoder_layers_10_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228452928)))]; + tensor linear_214_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_query_net_weight_to_fp16, x = input_1065_cast_fp16)[name = tensor("linear_214_cast_fp16")]; + tensor model_transformer_encoder_layers_10_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228453376)))]; + tensor model_transformer_encoder_layers_10_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228527168)))]; + tensor linear_215_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_key_net_weight_to_fp16, x = input_1065_cast_fp16)[name = tensor("linear_215_cast_fp16")]; + tensor model_transformer_encoder_layers_10_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228527616)))]; + tensor model_transformer_encoder_layers_10_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228601408)))]; + tensor linear_216_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_value_net_weight_to_fp16, x = input_1065_cast_fp16)[name = tensor("linear_216_cast_fp16")]; + tensor var_4067 = const()[name = tensor("op_4067"), val = tensor([1, 390, 8, 24])]; + tensor x_499_cast_fp16 = reshape(shape = var_4067, x = linear_214_cast_fp16)[name = tensor("x_499_cast_fp16")]; tensor _inversed_query_55_y_0_to_fp16 = const()[name = tensor("_inversed_query_55_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_55_cast_fp16 = mul(x = x_499_cast_fp16, y = _inversed_query_55_y_0_to_fp16)[name = tensor("_inversed_query_55_cast_fp16")]; - tensor var_4075 = const()[name = tensor("op_4075"), val = tensor([1, 242, 8, 24])]; - tensor x_503_cast_fp16 = reshape(shape = var_4075, x = linear_215_cast_fp16)[name = tensor("x_503_cast_fp16")]; + tensor _inversed_query_55_cast_fp16 = mul(x = x_499_cast_fp16, y = _inversed_query_55_y_0_to_fp16)[name = tensor("_inversed_query_55_cast_fp16")]; + tensor var_4075 = const()[name = tensor("op_4075"), val = tensor([1, 390, 8, 24])]; + tensor x_503_cast_fp16 = reshape(shape = var_4075, x = linear_215_cast_fp16)[name = tensor("x_503_cast_fp16")]; tensor _inversed_key_21_y_0_to_fp16 = const()[name = tensor("_inversed_key_21_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_21_cast_fp16 = mul(x = x_503_cast_fp16, y = _inversed_key_21_y_0_to_fp16)[name = tensor("_inversed_key_21_cast_fp16")]; - tensor var_4083 = const()[name = tensor("op_4083"), val = tensor([1, 242, 8, 24])]; - tensor x_507_cast_fp16 = reshape(shape = var_4083, x = linear_216_cast_fp16)[name = tensor("x_507_cast_fp16")]; + tensor _inversed_key_21_cast_fp16 = mul(x = x_503_cast_fp16, y = _inversed_key_21_y_0_to_fp16)[name = tensor("_inversed_key_21_cast_fp16")]; + tensor var_4083 = const()[name = tensor("op_4083"), val = tensor([1, 390, 8, 24])]; + tensor x_507_cast_fp16 = reshape(shape = var_4083, x = linear_216_cast_fp16)[name = tensor("x_507_cast_fp16")]; tensor var_4085 = const()[name = tensor("op_4085"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_41_transpose_x_1 = const()[name = tensor("attention_scores_41_transpose_x_1"), val = tensor(false)]; tensor attention_scores_41_transpose_y_1 = const()[name = tensor("attention_scores_41_transpose_y_1"), val = tensor(true)]; tensor transpose_105_perm_0 = const()[name = tensor("transpose_105_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_106_perm_0 = const()[name = tensor("transpose_106_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_106 = transpose(perm = transpose_106_perm_0, x = _inversed_key_21_cast_fp16)[name = tensor("transpose_150")]; - tensor transpose_105 = transpose(perm = transpose_105_perm_0, x = _inversed_query_55_cast_fp16)[name = tensor("transpose_151")]; - tensor attention_scores_41_cast_fp16 = matmul(transpose_x = attention_scores_41_transpose_x_1, transpose_y = attention_scores_41_transpose_y_1, x = transpose_105, y = transpose_106)[name = tensor("attention_scores_41_cast_fp16")]; - tensor attention_scores_43_cast_fp16 = add(x = attention_scores_41_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_43_cast_fp16")]; - tensor input_1067_cast_fp16 = softmax(axis = var_3111, x = attention_scores_43_cast_fp16)[name = tensor("input_1067_cast_fp16")]; + tensor transpose_106 = transpose(perm = transpose_106_perm_0, x = _inversed_key_21_cast_fp16)[name = tensor("transpose_150")]; + tensor transpose_105 = transpose(perm = transpose_105_perm_0, x = _inversed_query_55_cast_fp16)[name = tensor("transpose_151")]; + tensor attention_scores_41_cast_fp16 = matmul(transpose_x = attention_scores_41_transpose_x_1, transpose_y = attention_scores_41_transpose_y_1, x = transpose_105, y = transpose_106)[name = tensor("attention_scores_41_cast_fp16")]; + tensor attention_scores_43_cast_fp16 = add(x = attention_scores_41_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_43_cast_fp16")]; + tensor input_1067_cast_fp16 = softmax(axis = var_3111, x = attention_scores_43_cast_fp16)[name = tensor("input_1067_cast_fp16")]; tensor context_41_transpose_x_0 = const()[name = tensor("context_41_transpose_x_0"), val = tensor(false)]; tensor context_41_transpose_y_0 = const()[name = tensor("context_41_transpose_y_0"), val = tensor(false)]; - tensor value_55_cast_fp16 = transpose(perm = var_4085, x = x_507_cast_fp16)[name = tensor("transpose_152")]; - tensor context_41_cast_fp16 = matmul(transpose_x = context_41_transpose_x_0, transpose_y = context_41_transpose_y_0, x = input_1067_cast_fp16, y = value_55_cast_fp16)[name = tensor("context_41_cast_fp16")]; + tensor value_55_cast_fp16 = transpose(perm = var_4085, x = x_507_cast_fp16)[name = tensor("transpose_152")]; + tensor context_41_cast_fp16 = matmul(transpose_x = context_41_transpose_x_0, transpose_y = context_41_transpose_y_0, x = input_1067_cast_fp16, y = value_55_cast_fp16)[name = tensor("context_41_cast_fp16")]; tensor var_4099 = const()[name = tensor("op_4099"), val = tensor([0, 2, 1, 3])]; - tensor var_4104 = const()[name = tensor("op_4104"), val = tensor([1, 242, 192])]; - tensor var_4100_cast_fp16 = transpose(perm = var_4099, x = context_41_cast_fp16)[name = tensor("transpose_149")]; - tensor input_1069_cast_fp16 = reshape(shape = var_4104, x = var_4100_cast_fp16)[name = tensor("input_1069_cast_fp16")]; - tensor model_transformer_encoder_layers_10_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223449088)))]; - tensor model_transformer_encoder_layers_10_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223522880)))]; - tensor linear_217_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_out_projection_weight_to_fp16, x = input_1069_cast_fp16)[name = tensor("linear_217_cast_fp16")]; - tensor input_1073_cast_fp16 = add(x = linear_217_cast_fp16, y = input_1065_cast_fp16)[name = tensor("input_1073_cast_fp16")]; + tensor var_4104 = const()[name = tensor("op_4104"), val = tensor([1, 390, 192])]; + tensor var_4100_cast_fp16 = transpose(perm = var_4099, x = context_41_cast_fp16)[name = tensor("transpose_149")]; + tensor input_1069_cast_fp16 = reshape(shape = var_4104, x = var_4100_cast_fp16)[name = tensor("input_1069_cast_fp16")]; + tensor model_transformer_encoder_layers_10_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228601856)))]; + tensor model_transformer_encoder_layers_10_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228675648)))]; + tensor linear_217_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_10_first_sub_layer_out_projection_weight_to_fp16, x = input_1069_cast_fp16)[name = tensor("linear_217_cast_fp16")]; + tensor input_1073_cast_fp16 = add(x = linear_217_cast_fp16, y = input_1065_cast_fp16)[name = tensor("input_1073_cast_fp16")]; tensor input_1075_axes_0 = const()[name = tensor("input_1075_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_10_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223523328)))]; - tensor model_transformer_encoder_layers_10_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223523776)))]; - tensor input_1075_cast_fp16 = layer_norm(axes = input_1075_axes_0, beta = model_transformer_encoder_layers_10_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_10_layer_norm_1_weight_to_fp16, x = input_1073_cast_fp16)[name = tensor("input_1075_cast_fp16")]; - tensor model_transformer_encoder_layers_10_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223524224)))]; - tensor model_transformer_encoder_layers_10_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223819200)))]; - tensor linear_218_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_10_second_sub_layer_dense_in_weight_to_fp16, x = input_1075_cast_fp16)[name = tensor("linear_218_cast_fp16")]; - tensor input_1077_cast_fp16 = relu(x = linear_218_cast_fp16)[name = tensor("input_1077_cast_fp16")]; - tensor model_transformer_encoder_layers_10_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(223820800)))]; - tensor model_transformer_encoder_layers_10_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224115776)))]; - tensor linear_219_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_10_second_sub_layer_dense_out_weight_to_fp16, x = input_1077_cast_fp16)[name = tensor("linear_219_cast_fp16")]; - tensor input_1081_cast_fp16 = add(x = linear_219_cast_fp16, y = input_1075_cast_fp16)[name = tensor("input_1081_cast_fp16")]; + tensor model_transformer_encoder_layers_10_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228676096)))]; + tensor model_transformer_encoder_layers_10_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228676544)))]; + tensor input_1075_cast_fp16 = layer_norm(axes = input_1075_axes_0, beta = model_transformer_encoder_layers_10_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_10_layer_norm_1_weight_to_fp16, x = input_1073_cast_fp16)[name = tensor("input_1075_cast_fp16")]; + tensor model_transformer_encoder_layers_10_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228676992)))]; + tensor model_transformer_encoder_layers_10_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228971968)))]; + tensor linear_218_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_10_second_sub_layer_dense_in_weight_to_fp16, x = input_1075_cast_fp16)[name = tensor("linear_218_cast_fp16")]; + tensor input_1077_cast_fp16 = relu(x = linear_218_cast_fp16)[name = tensor("input_1077_cast_fp16")]; + tensor model_transformer_encoder_layers_10_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228973568)))]; + tensor model_transformer_encoder_layers_10_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229268544)))]; + tensor linear_219_cast_fp16 = linear(bias = model_transformer_encoder_layers_10_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_10_second_sub_layer_dense_out_weight_to_fp16, x = input_1077_cast_fp16)[name = tensor("linear_219_cast_fp16")]; + tensor input_1081_cast_fp16 = add(x = linear_219_cast_fp16, y = input_1075_cast_fp16)[name = tensor("input_1081_cast_fp16")]; tensor input_1083_axes_0 = const()[name = tensor("input_1083_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_10_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224116224)))]; - tensor model_transformer_encoder_layers_10_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224116672)))]; - tensor input_1083_cast_fp16 = layer_norm(axes = input_1083_axes_0, beta = model_transformer_encoder_layers_10_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_10_layer_norm_2_weight_to_fp16, x = input_1081_cast_fp16)[name = tensor("input_1083_cast_fp16")]; - tensor model_transformer_encoder_layers_11_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224117120)))]; - tensor model_transformer_encoder_layers_11_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224190912)))]; - tensor linear_220_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_query_net_weight_to_fp16, x = input_1083_cast_fp16)[name = tensor("linear_220_cast_fp16")]; - tensor model_transformer_encoder_layers_11_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224191360)))]; - tensor model_transformer_encoder_layers_11_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224265152)))]; - tensor linear_221_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_key_net_weight_to_fp16, x = input_1083_cast_fp16)[name = tensor("linear_221_cast_fp16")]; - tensor model_transformer_encoder_layers_11_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224265600)))]; - tensor model_transformer_encoder_layers_11_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224339392)))]; - tensor linear_222_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_value_net_weight_to_fp16, x = input_1083_cast_fp16)[name = tensor("linear_222_cast_fp16")]; - tensor var_4155 = const()[name = tensor("op_4155"), val = tensor([1, 242, 8, 24])]; - tensor x_511_cast_fp16 = reshape(shape = var_4155, x = linear_220_cast_fp16)[name = tensor("x_511_cast_fp16")]; + tensor model_transformer_encoder_layers_10_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229268992)))]; + tensor model_transformer_encoder_layers_10_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_10_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229269440)))]; + tensor input_1083_cast_fp16 = layer_norm(axes = input_1083_axes_0, beta = model_transformer_encoder_layers_10_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_10_layer_norm_2_weight_to_fp16, x = input_1081_cast_fp16)[name = tensor("input_1083_cast_fp16")]; + tensor model_transformer_encoder_layers_11_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229269888)))]; + tensor model_transformer_encoder_layers_11_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229343680)))]; + tensor linear_220_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_query_net_weight_to_fp16, x = input_1083_cast_fp16)[name = tensor("linear_220_cast_fp16")]; + tensor model_transformer_encoder_layers_11_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229344128)))]; + tensor model_transformer_encoder_layers_11_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229417920)))]; + tensor linear_221_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_key_net_weight_to_fp16, x = input_1083_cast_fp16)[name = tensor("linear_221_cast_fp16")]; + tensor model_transformer_encoder_layers_11_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229418368)))]; + tensor model_transformer_encoder_layers_11_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229492160)))]; + tensor linear_222_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_value_net_weight_to_fp16, x = input_1083_cast_fp16)[name = tensor("linear_222_cast_fp16")]; + tensor var_4155 = const()[name = tensor("op_4155"), val = tensor([1, 390, 8, 24])]; + tensor x_511_cast_fp16 = reshape(shape = var_4155, x = linear_220_cast_fp16)[name = tensor("x_511_cast_fp16")]; tensor _inversed_query_57_y_0_to_fp16 = const()[name = tensor("_inversed_query_57_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_57_cast_fp16 = mul(x = x_511_cast_fp16, y = _inversed_query_57_y_0_to_fp16)[name = tensor("_inversed_query_57_cast_fp16")]; - tensor var_4163 = const()[name = tensor("op_4163"), val = tensor([1, 242, 8, 24])]; - tensor x_515_cast_fp16 = reshape(shape = var_4163, x = linear_221_cast_fp16)[name = tensor("x_515_cast_fp16")]; + tensor _inversed_query_57_cast_fp16 = mul(x = x_511_cast_fp16, y = _inversed_query_57_y_0_to_fp16)[name = tensor("_inversed_query_57_cast_fp16")]; + tensor var_4163 = const()[name = tensor("op_4163"), val = tensor([1, 390, 8, 24])]; + tensor x_515_cast_fp16 = reshape(shape = var_4163, x = linear_221_cast_fp16)[name = tensor("x_515_cast_fp16")]; tensor _inversed_key_23_y_0_to_fp16 = const()[name = tensor("_inversed_key_23_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_23_cast_fp16 = mul(x = x_515_cast_fp16, y = _inversed_key_23_y_0_to_fp16)[name = tensor("_inversed_key_23_cast_fp16")]; - tensor var_4171 = const()[name = tensor("op_4171"), val = tensor([1, 242, 8, 24])]; - tensor x_519_cast_fp16 = reshape(shape = var_4171, x = linear_222_cast_fp16)[name = tensor("x_519_cast_fp16")]; + tensor _inversed_key_23_cast_fp16 = mul(x = x_515_cast_fp16, y = _inversed_key_23_y_0_to_fp16)[name = tensor("_inversed_key_23_cast_fp16")]; + tensor var_4171 = const()[name = tensor("op_4171"), val = tensor([1, 390, 8, 24])]; + tensor x_519_cast_fp16 = reshape(shape = var_4171, x = linear_222_cast_fp16)[name = tensor("x_519_cast_fp16")]; tensor var_4173 = const()[name = tensor("op_4173"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_45_transpose_x_1 = const()[name = tensor("attention_scores_45_transpose_x_1"), val = tensor(false)]; tensor attention_scores_45_transpose_y_1 = const()[name = tensor("attention_scores_45_transpose_y_1"), val = tensor(true)]; tensor transpose_107_perm_0 = const()[name = tensor("transpose_107_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_108_perm_0 = const()[name = tensor("transpose_108_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_108 = transpose(perm = transpose_108_perm_0, x = _inversed_key_23_cast_fp16)[name = tensor("transpose_146")]; - tensor transpose_107 = transpose(perm = transpose_107_perm_0, x = _inversed_query_57_cast_fp16)[name = tensor("transpose_147")]; - tensor attention_scores_45_cast_fp16 = matmul(transpose_x = attention_scores_45_transpose_x_1, transpose_y = attention_scores_45_transpose_y_1, x = transpose_107, y = transpose_108)[name = tensor("attention_scores_45_cast_fp16")]; - tensor attention_scores_47_cast_fp16 = add(x = attention_scores_45_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_47_cast_fp16")]; - tensor input_1085_cast_fp16 = softmax(axis = var_3111, x = attention_scores_47_cast_fp16)[name = tensor("input_1085_cast_fp16")]; + tensor transpose_108 = transpose(perm = transpose_108_perm_0, x = _inversed_key_23_cast_fp16)[name = tensor("transpose_146")]; + tensor transpose_107 = transpose(perm = transpose_107_perm_0, x = _inversed_query_57_cast_fp16)[name = tensor("transpose_147")]; + tensor attention_scores_45_cast_fp16 = matmul(transpose_x = attention_scores_45_transpose_x_1, transpose_y = attention_scores_45_transpose_y_1, x = transpose_107, y = transpose_108)[name = tensor("attention_scores_45_cast_fp16")]; + tensor attention_scores_47_cast_fp16 = add(x = attention_scores_45_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_47_cast_fp16")]; + tensor input_1085_cast_fp16 = softmax(axis = var_3111, x = attention_scores_47_cast_fp16)[name = tensor("input_1085_cast_fp16")]; tensor context_45_transpose_x_0 = const()[name = tensor("context_45_transpose_x_0"), val = tensor(false)]; tensor context_45_transpose_y_0 = const()[name = tensor("context_45_transpose_y_0"), val = tensor(false)]; - tensor value_57_cast_fp16 = transpose(perm = var_4173, x = x_519_cast_fp16)[name = tensor("transpose_148")]; - tensor context_45_cast_fp16 = matmul(transpose_x = context_45_transpose_x_0, transpose_y = context_45_transpose_y_0, x = input_1085_cast_fp16, y = value_57_cast_fp16)[name = tensor("context_45_cast_fp16")]; + tensor value_57_cast_fp16 = transpose(perm = var_4173, x = x_519_cast_fp16)[name = tensor("transpose_148")]; + tensor context_45_cast_fp16 = matmul(transpose_x = context_45_transpose_x_0, transpose_y = context_45_transpose_y_0, x = input_1085_cast_fp16, y = value_57_cast_fp16)[name = tensor("context_45_cast_fp16")]; tensor var_4187 = const()[name = tensor("op_4187"), val = tensor([0, 2, 1, 3])]; - tensor var_4192 = const()[name = tensor("op_4192"), val = tensor([1, 242, 192])]; - tensor var_4188_cast_fp16 = transpose(perm = var_4187, x = context_45_cast_fp16)[name = tensor("transpose_145")]; - tensor input_1087_cast_fp16 = reshape(shape = var_4192, x = var_4188_cast_fp16)[name = tensor("input_1087_cast_fp16")]; - tensor model_transformer_encoder_layers_11_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224339840)))]; - tensor model_transformer_encoder_layers_11_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224413632)))]; - tensor linear_223_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_out_projection_weight_to_fp16, x = input_1087_cast_fp16)[name = tensor("linear_223_cast_fp16")]; - tensor input_1091_cast_fp16 = add(x = linear_223_cast_fp16, y = input_1083_cast_fp16)[name = tensor("input_1091_cast_fp16")]; + tensor var_4192 = const()[name = tensor("op_4192"), val = tensor([1, 390, 192])]; + tensor var_4188_cast_fp16 = transpose(perm = var_4187, x = context_45_cast_fp16)[name = tensor("transpose_145")]; + tensor input_1087_cast_fp16 = reshape(shape = var_4192, x = var_4188_cast_fp16)[name = tensor("input_1087_cast_fp16")]; + tensor model_transformer_encoder_layers_11_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229492608)))]; + tensor model_transformer_encoder_layers_11_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229566400)))]; + tensor linear_223_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_11_first_sub_layer_out_projection_weight_to_fp16, x = input_1087_cast_fp16)[name = tensor("linear_223_cast_fp16")]; + tensor input_1091_cast_fp16 = add(x = linear_223_cast_fp16, y = input_1083_cast_fp16)[name = tensor("input_1091_cast_fp16")]; tensor input_1093_axes_0 = const()[name = tensor("input_1093_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_11_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224414080)))]; - tensor model_transformer_encoder_layers_11_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224414528)))]; - tensor input_1093_cast_fp16 = layer_norm(axes = input_1093_axes_0, beta = model_transformer_encoder_layers_11_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_11_layer_norm_1_weight_to_fp16, x = input_1091_cast_fp16)[name = tensor("input_1093_cast_fp16")]; - tensor model_transformer_encoder_layers_11_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224414976)))]; - tensor model_transformer_encoder_layers_11_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224709952)))]; - tensor linear_224_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_11_second_sub_layer_dense_in_weight_to_fp16, x = input_1093_cast_fp16)[name = tensor("linear_224_cast_fp16")]; - tensor input_1095_cast_fp16 = relu(x = linear_224_cast_fp16)[name = tensor("input_1095_cast_fp16")]; - tensor model_transformer_encoder_layers_11_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(224711552)))]; - tensor model_transformer_encoder_layers_11_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225006528)))]; - tensor linear_225_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_11_second_sub_layer_dense_out_weight_to_fp16, x = input_1095_cast_fp16)[name = tensor("linear_225_cast_fp16")]; - tensor input_1099_cast_fp16 = add(x = linear_225_cast_fp16, y = input_1093_cast_fp16)[name = tensor("input_1099_cast_fp16")]; + tensor model_transformer_encoder_layers_11_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229566848)))]; + tensor model_transformer_encoder_layers_11_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229567296)))]; + tensor input_1093_cast_fp16 = layer_norm(axes = input_1093_axes_0, beta = model_transformer_encoder_layers_11_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_11_layer_norm_1_weight_to_fp16, x = input_1091_cast_fp16)[name = tensor("input_1093_cast_fp16")]; + tensor model_transformer_encoder_layers_11_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229567744)))]; + tensor model_transformer_encoder_layers_11_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229862720)))]; + tensor linear_224_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_11_second_sub_layer_dense_in_weight_to_fp16, x = input_1093_cast_fp16)[name = tensor("linear_224_cast_fp16")]; + tensor input_1095_cast_fp16 = relu(x = linear_224_cast_fp16)[name = tensor("input_1095_cast_fp16")]; + tensor model_transformer_encoder_layers_11_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229864320)))]; + tensor model_transformer_encoder_layers_11_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230159296)))]; + tensor linear_225_cast_fp16 = linear(bias = model_transformer_encoder_layers_11_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_11_second_sub_layer_dense_out_weight_to_fp16, x = input_1095_cast_fp16)[name = tensor("linear_225_cast_fp16")]; + tensor input_1099_cast_fp16 = add(x = linear_225_cast_fp16, y = input_1093_cast_fp16)[name = tensor("input_1099_cast_fp16")]; tensor input_1101_axes_0 = const()[name = tensor("input_1101_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_11_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225006976)))]; - tensor model_transformer_encoder_layers_11_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225007424)))]; - tensor input_1101_cast_fp16 = layer_norm(axes = input_1101_axes_0, beta = model_transformer_encoder_layers_11_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_11_layer_norm_2_weight_to_fp16, x = input_1099_cast_fp16)[name = tensor("input_1101_cast_fp16")]; - tensor model_transformer_encoder_layers_12_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225007872)))]; - tensor model_transformer_encoder_layers_12_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225081664)))]; - tensor linear_226_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_query_net_weight_to_fp16, x = input_1101_cast_fp16)[name = tensor("linear_226_cast_fp16")]; - tensor model_transformer_encoder_layers_12_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225082112)))]; - tensor model_transformer_encoder_layers_12_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225155904)))]; - tensor linear_227_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_key_net_weight_to_fp16, x = input_1101_cast_fp16)[name = tensor("linear_227_cast_fp16")]; - tensor model_transformer_encoder_layers_12_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225156352)))]; - tensor model_transformer_encoder_layers_12_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225230144)))]; - tensor linear_228_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_value_net_weight_to_fp16, x = input_1101_cast_fp16)[name = tensor("linear_228_cast_fp16")]; - tensor var_4243 = const()[name = tensor("op_4243"), val = tensor([1, 242, 8, 24])]; - tensor x_523_cast_fp16 = reshape(shape = var_4243, x = linear_226_cast_fp16)[name = tensor("x_523_cast_fp16")]; + tensor model_transformer_encoder_layers_11_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230159744)))]; + tensor model_transformer_encoder_layers_11_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_11_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230160192)))]; + tensor input_1101_cast_fp16 = layer_norm(axes = input_1101_axes_0, beta = model_transformer_encoder_layers_11_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_11_layer_norm_2_weight_to_fp16, x = input_1099_cast_fp16)[name = tensor("input_1101_cast_fp16")]; + tensor model_transformer_encoder_layers_12_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230160640)))]; + tensor model_transformer_encoder_layers_12_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230234432)))]; + tensor linear_226_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_query_net_weight_to_fp16, x = input_1101_cast_fp16)[name = tensor("linear_226_cast_fp16")]; + tensor model_transformer_encoder_layers_12_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230234880)))]; + tensor model_transformer_encoder_layers_12_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230308672)))]; + tensor linear_227_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_key_net_weight_to_fp16, x = input_1101_cast_fp16)[name = tensor("linear_227_cast_fp16")]; + tensor model_transformer_encoder_layers_12_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230309120)))]; + tensor model_transformer_encoder_layers_12_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230382912)))]; + tensor linear_228_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_value_net_weight_to_fp16, x = input_1101_cast_fp16)[name = tensor("linear_228_cast_fp16")]; + tensor var_4243 = const()[name = tensor("op_4243"), val = tensor([1, 390, 8, 24])]; + tensor x_523_cast_fp16 = reshape(shape = var_4243, x = linear_226_cast_fp16)[name = tensor("x_523_cast_fp16")]; tensor _inversed_query_59_y_0_to_fp16 = const()[name = tensor("_inversed_query_59_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_59_cast_fp16 = mul(x = x_523_cast_fp16, y = _inversed_query_59_y_0_to_fp16)[name = tensor("_inversed_query_59_cast_fp16")]; - tensor var_4251 = const()[name = tensor("op_4251"), val = tensor([1, 242, 8, 24])]; - tensor x_527_cast_fp16 = reshape(shape = var_4251, x = linear_227_cast_fp16)[name = tensor("x_527_cast_fp16")]; + tensor _inversed_query_59_cast_fp16 = mul(x = x_523_cast_fp16, y = _inversed_query_59_y_0_to_fp16)[name = tensor("_inversed_query_59_cast_fp16")]; + tensor var_4251 = const()[name = tensor("op_4251"), val = tensor([1, 390, 8, 24])]; + tensor x_527_cast_fp16 = reshape(shape = var_4251, x = linear_227_cast_fp16)[name = tensor("x_527_cast_fp16")]; tensor _inversed_key_25_y_0_to_fp16 = const()[name = tensor("_inversed_key_25_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_25_cast_fp16 = mul(x = x_527_cast_fp16, y = _inversed_key_25_y_0_to_fp16)[name = tensor("_inversed_key_25_cast_fp16")]; - tensor var_4259 = const()[name = tensor("op_4259"), val = tensor([1, 242, 8, 24])]; - tensor x_531_cast_fp16 = reshape(shape = var_4259, x = linear_228_cast_fp16)[name = tensor("x_531_cast_fp16")]; + tensor _inversed_key_25_cast_fp16 = mul(x = x_527_cast_fp16, y = _inversed_key_25_y_0_to_fp16)[name = tensor("_inversed_key_25_cast_fp16")]; + tensor var_4259 = const()[name = tensor("op_4259"), val = tensor([1, 390, 8, 24])]; + tensor x_531_cast_fp16 = reshape(shape = var_4259, x = linear_228_cast_fp16)[name = tensor("x_531_cast_fp16")]; tensor var_4261 = const()[name = tensor("op_4261"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_49_transpose_x_1 = const()[name = tensor("attention_scores_49_transpose_x_1"), val = tensor(false)]; tensor attention_scores_49_transpose_y_1 = const()[name = tensor("attention_scores_49_transpose_y_1"), val = tensor(true)]; tensor transpose_109_perm_0 = const()[name = tensor("transpose_109_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_110_perm_0 = const()[name = tensor("transpose_110_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_110 = transpose(perm = transpose_110_perm_0, x = _inversed_key_25_cast_fp16)[name = tensor("transpose_142")]; - tensor transpose_109 = transpose(perm = transpose_109_perm_0, x = _inversed_query_59_cast_fp16)[name = tensor("transpose_143")]; - tensor attention_scores_49_cast_fp16 = matmul(transpose_x = attention_scores_49_transpose_x_1, transpose_y = attention_scores_49_transpose_y_1, x = transpose_109, y = transpose_110)[name = tensor("attention_scores_49_cast_fp16")]; - tensor attention_scores_51_cast_fp16 = add(x = attention_scores_49_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_51_cast_fp16")]; - tensor input_1103_cast_fp16 = softmax(axis = var_3111, x = attention_scores_51_cast_fp16)[name = tensor("input_1103_cast_fp16")]; + tensor transpose_110 = transpose(perm = transpose_110_perm_0, x = _inversed_key_25_cast_fp16)[name = tensor("transpose_142")]; + tensor transpose_109 = transpose(perm = transpose_109_perm_0, x = _inversed_query_59_cast_fp16)[name = tensor("transpose_143")]; + tensor attention_scores_49_cast_fp16 = matmul(transpose_x = attention_scores_49_transpose_x_1, transpose_y = attention_scores_49_transpose_y_1, x = transpose_109, y = transpose_110)[name = tensor("attention_scores_49_cast_fp16")]; + tensor attention_scores_51_cast_fp16 = add(x = attention_scores_49_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_51_cast_fp16")]; + tensor input_1103_cast_fp16 = softmax(axis = var_3111, x = attention_scores_51_cast_fp16)[name = tensor("input_1103_cast_fp16")]; tensor context_49_transpose_x_0 = const()[name = tensor("context_49_transpose_x_0"), val = tensor(false)]; tensor context_49_transpose_y_0 = const()[name = tensor("context_49_transpose_y_0"), val = tensor(false)]; - tensor value_59_cast_fp16 = transpose(perm = var_4261, x = x_531_cast_fp16)[name = tensor("transpose_144")]; - tensor context_49_cast_fp16 = matmul(transpose_x = context_49_transpose_x_0, transpose_y = context_49_transpose_y_0, x = input_1103_cast_fp16, y = value_59_cast_fp16)[name = tensor("context_49_cast_fp16")]; + tensor value_59_cast_fp16 = transpose(perm = var_4261, x = x_531_cast_fp16)[name = tensor("transpose_144")]; + tensor context_49_cast_fp16 = matmul(transpose_x = context_49_transpose_x_0, transpose_y = context_49_transpose_y_0, x = input_1103_cast_fp16, y = value_59_cast_fp16)[name = tensor("context_49_cast_fp16")]; tensor var_4275 = const()[name = tensor("op_4275"), val = tensor([0, 2, 1, 3])]; - tensor var_4280 = const()[name = tensor("op_4280"), val = tensor([1, 242, 192])]; - tensor var_4276_cast_fp16 = transpose(perm = var_4275, x = context_49_cast_fp16)[name = tensor("transpose_141")]; - tensor input_1105_cast_fp16 = reshape(shape = var_4280, x = var_4276_cast_fp16)[name = tensor("input_1105_cast_fp16")]; - tensor model_transformer_encoder_layers_12_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225230592)))]; - tensor model_transformer_encoder_layers_12_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225304384)))]; - tensor linear_229_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_out_projection_weight_to_fp16, x = input_1105_cast_fp16)[name = tensor("linear_229_cast_fp16")]; - tensor input_1109_cast_fp16 = add(x = linear_229_cast_fp16, y = input_1101_cast_fp16)[name = tensor("input_1109_cast_fp16")]; + tensor var_4280 = const()[name = tensor("op_4280"), val = tensor([1, 390, 192])]; + tensor var_4276_cast_fp16 = transpose(perm = var_4275, x = context_49_cast_fp16)[name = tensor("transpose_141")]; + tensor input_1105_cast_fp16 = reshape(shape = var_4280, x = var_4276_cast_fp16)[name = tensor("input_1105_cast_fp16")]; + tensor model_transformer_encoder_layers_12_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230383360)))]; + tensor model_transformer_encoder_layers_12_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230457152)))]; + tensor linear_229_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_12_first_sub_layer_out_projection_weight_to_fp16, x = input_1105_cast_fp16)[name = tensor("linear_229_cast_fp16")]; + tensor input_1109_cast_fp16 = add(x = linear_229_cast_fp16, y = input_1101_cast_fp16)[name = tensor("input_1109_cast_fp16")]; tensor input_1111_axes_0 = const()[name = tensor("input_1111_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_12_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225304832)))]; - tensor model_transformer_encoder_layers_12_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225305280)))]; - tensor input_1111_cast_fp16 = layer_norm(axes = input_1111_axes_0, beta = model_transformer_encoder_layers_12_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_12_layer_norm_1_weight_to_fp16, x = input_1109_cast_fp16)[name = tensor("input_1111_cast_fp16")]; - tensor model_transformer_encoder_layers_12_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225305728)))]; - tensor model_transformer_encoder_layers_12_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225600704)))]; - tensor linear_230_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_12_second_sub_layer_dense_in_weight_to_fp16, x = input_1111_cast_fp16)[name = tensor("linear_230_cast_fp16")]; - tensor input_1113_cast_fp16 = relu(x = linear_230_cast_fp16)[name = tensor("input_1113_cast_fp16")]; - tensor model_transformer_encoder_layers_12_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225602304)))]; - tensor model_transformer_encoder_layers_12_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225897280)))]; - tensor linear_231_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_12_second_sub_layer_dense_out_weight_to_fp16, x = input_1113_cast_fp16)[name = tensor("linear_231_cast_fp16")]; - tensor input_1117_cast_fp16 = add(x = linear_231_cast_fp16, y = input_1111_cast_fp16)[name = tensor("input_1117_cast_fp16")]; + tensor model_transformer_encoder_layers_12_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230457600)))]; + tensor model_transformer_encoder_layers_12_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230458048)))]; + tensor input_1111_cast_fp16 = layer_norm(axes = input_1111_axes_0, beta = model_transformer_encoder_layers_12_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_12_layer_norm_1_weight_to_fp16, x = input_1109_cast_fp16)[name = tensor("input_1111_cast_fp16")]; + tensor model_transformer_encoder_layers_12_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230458496)))]; + tensor model_transformer_encoder_layers_12_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230753472)))]; + tensor linear_230_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_12_second_sub_layer_dense_in_weight_to_fp16, x = input_1111_cast_fp16)[name = tensor("linear_230_cast_fp16")]; + tensor input_1113_cast_fp16 = relu(x = linear_230_cast_fp16)[name = tensor("input_1113_cast_fp16")]; + tensor model_transformer_encoder_layers_12_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230755072)))]; + tensor model_transformer_encoder_layers_12_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231050048)))]; + tensor linear_231_cast_fp16 = linear(bias = model_transformer_encoder_layers_12_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_12_second_sub_layer_dense_out_weight_to_fp16, x = input_1113_cast_fp16)[name = tensor("linear_231_cast_fp16")]; + tensor input_1117_cast_fp16 = add(x = linear_231_cast_fp16, y = input_1111_cast_fp16)[name = tensor("input_1117_cast_fp16")]; tensor input_1119_axes_0 = const()[name = tensor("input_1119_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_12_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225897728)))]; - tensor model_transformer_encoder_layers_12_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225898176)))]; - tensor input_1119_cast_fp16 = layer_norm(axes = input_1119_axes_0, beta = model_transformer_encoder_layers_12_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_12_layer_norm_2_weight_to_fp16, x = input_1117_cast_fp16)[name = tensor("input_1119_cast_fp16")]; - tensor model_transformer_encoder_layers_13_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225898624)))]; - tensor model_transformer_encoder_layers_13_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225972416)))]; - tensor linear_232_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_query_net_weight_to_fp16, x = input_1119_cast_fp16)[name = tensor("linear_232_cast_fp16")]; - tensor model_transformer_encoder_layers_13_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(225972864)))]; - tensor model_transformer_encoder_layers_13_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226046656)))]; - tensor linear_233_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_key_net_weight_to_fp16, x = input_1119_cast_fp16)[name = tensor("linear_233_cast_fp16")]; - tensor model_transformer_encoder_layers_13_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226047104)))]; - tensor model_transformer_encoder_layers_13_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226120896)))]; - tensor linear_234_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_value_net_weight_to_fp16, x = input_1119_cast_fp16)[name = tensor("linear_234_cast_fp16")]; - tensor var_4331 = const()[name = tensor("op_4331"), val = tensor([1, 242, 8, 24])]; - tensor x_535_cast_fp16 = reshape(shape = var_4331, x = linear_232_cast_fp16)[name = tensor("x_535_cast_fp16")]; + tensor model_transformer_encoder_layers_12_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231050496)))]; + tensor model_transformer_encoder_layers_12_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_12_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231050944)))]; + tensor input_1119_cast_fp16 = layer_norm(axes = input_1119_axes_0, beta = model_transformer_encoder_layers_12_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_12_layer_norm_2_weight_to_fp16, x = input_1117_cast_fp16)[name = tensor("input_1119_cast_fp16")]; + tensor model_transformer_encoder_layers_13_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231051392)))]; + tensor model_transformer_encoder_layers_13_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231125184)))]; + tensor linear_232_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_query_net_weight_to_fp16, x = input_1119_cast_fp16)[name = tensor("linear_232_cast_fp16")]; + tensor model_transformer_encoder_layers_13_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231125632)))]; + tensor model_transformer_encoder_layers_13_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231199424)))]; + tensor linear_233_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_key_net_weight_to_fp16, x = input_1119_cast_fp16)[name = tensor("linear_233_cast_fp16")]; + tensor model_transformer_encoder_layers_13_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231199872)))]; + tensor model_transformer_encoder_layers_13_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231273664)))]; + tensor linear_234_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_value_net_weight_to_fp16, x = input_1119_cast_fp16)[name = tensor("linear_234_cast_fp16")]; + tensor var_4331 = const()[name = tensor("op_4331"), val = tensor([1, 390, 8, 24])]; + tensor x_535_cast_fp16 = reshape(shape = var_4331, x = linear_232_cast_fp16)[name = tensor("x_535_cast_fp16")]; tensor _inversed_query_61_y_0_to_fp16 = const()[name = tensor("_inversed_query_61_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_61_cast_fp16 = mul(x = x_535_cast_fp16, y = _inversed_query_61_y_0_to_fp16)[name = tensor("_inversed_query_61_cast_fp16")]; - tensor var_4339 = const()[name = tensor("op_4339"), val = tensor([1, 242, 8, 24])]; - tensor x_539_cast_fp16 = reshape(shape = var_4339, x = linear_233_cast_fp16)[name = tensor("x_539_cast_fp16")]; + tensor _inversed_query_61_cast_fp16 = mul(x = x_535_cast_fp16, y = _inversed_query_61_y_0_to_fp16)[name = tensor("_inversed_query_61_cast_fp16")]; + tensor var_4339 = const()[name = tensor("op_4339"), val = tensor([1, 390, 8, 24])]; + tensor x_539_cast_fp16 = reshape(shape = var_4339, x = linear_233_cast_fp16)[name = tensor("x_539_cast_fp16")]; tensor _inversed_key_27_y_0_to_fp16 = const()[name = tensor("_inversed_key_27_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_27_cast_fp16 = mul(x = x_539_cast_fp16, y = _inversed_key_27_y_0_to_fp16)[name = tensor("_inversed_key_27_cast_fp16")]; - tensor var_4347 = const()[name = tensor("op_4347"), val = tensor([1, 242, 8, 24])]; - tensor x_543_cast_fp16 = reshape(shape = var_4347, x = linear_234_cast_fp16)[name = tensor("x_543_cast_fp16")]; + tensor _inversed_key_27_cast_fp16 = mul(x = x_539_cast_fp16, y = _inversed_key_27_y_0_to_fp16)[name = tensor("_inversed_key_27_cast_fp16")]; + tensor var_4347 = const()[name = tensor("op_4347"), val = tensor([1, 390, 8, 24])]; + tensor x_543_cast_fp16 = reshape(shape = var_4347, x = linear_234_cast_fp16)[name = tensor("x_543_cast_fp16")]; tensor var_4349 = const()[name = tensor("op_4349"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_53_transpose_x_1 = const()[name = tensor("attention_scores_53_transpose_x_1"), val = tensor(false)]; tensor attention_scores_53_transpose_y_1 = const()[name = tensor("attention_scores_53_transpose_y_1"), val = tensor(true)]; tensor transpose_111_perm_0 = const()[name = tensor("transpose_111_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_112_perm_0 = const()[name = tensor("transpose_112_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_112 = transpose(perm = transpose_112_perm_0, x = _inversed_key_27_cast_fp16)[name = tensor("transpose_138")]; - tensor transpose_111 = transpose(perm = transpose_111_perm_0, x = _inversed_query_61_cast_fp16)[name = tensor("transpose_139")]; - tensor attention_scores_53_cast_fp16 = matmul(transpose_x = attention_scores_53_transpose_x_1, transpose_y = attention_scores_53_transpose_y_1, x = transpose_111, y = transpose_112)[name = tensor("attention_scores_53_cast_fp16")]; - tensor attention_scores_55_cast_fp16 = add(x = attention_scores_53_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_55_cast_fp16")]; - tensor input_1121_cast_fp16 = softmax(axis = var_3111, x = attention_scores_55_cast_fp16)[name = tensor("input_1121_cast_fp16")]; + tensor transpose_112 = transpose(perm = transpose_112_perm_0, x = _inversed_key_27_cast_fp16)[name = tensor("transpose_138")]; + tensor transpose_111 = transpose(perm = transpose_111_perm_0, x = _inversed_query_61_cast_fp16)[name = tensor("transpose_139")]; + tensor attention_scores_53_cast_fp16 = matmul(transpose_x = attention_scores_53_transpose_x_1, transpose_y = attention_scores_53_transpose_y_1, x = transpose_111, y = transpose_112)[name = tensor("attention_scores_53_cast_fp16")]; + tensor attention_scores_55_cast_fp16 = add(x = attention_scores_53_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_55_cast_fp16")]; + tensor input_1121_cast_fp16 = softmax(axis = var_3111, x = attention_scores_55_cast_fp16)[name = tensor("input_1121_cast_fp16")]; tensor context_53_transpose_x_0 = const()[name = tensor("context_53_transpose_x_0"), val = tensor(false)]; tensor context_53_transpose_y_0 = const()[name = tensor("context_53_transpose_y_0"), val = tensor(false)]; - tensor value_61_cast_fp16 = transpose(perm = var_4349, x = x_543_cast_fp16)[name = tensor("transpose_140")]; - tensor context_53_cast_fp16 = matmul(transpose_x = context_53_transpose_x_0, transpose_y = context_53_transpose_y_0, x = input_1121_cast_fp16, y = value_61_cast_fp16)[name = tensor("context_53_cast_fp16")]; + tensor value_61_cast_fp16 = transpose(perm = var_4349, x = x_543_cast_fp16)[name = tensor("transpose_140")]; + tensor context_53_cast_fp16 = matmul(transpose_x = context_53_transpose_x_0, transpose_y = context_53_transpose_y_0, x = input_1121_cast_fp16, y = value_61_cast_fp16)[name = tensor("context_53_cast_fp16")]; tensor var_4363 = const()[name = tensor("op_4363"), val = tensor([0, 2, 1, 3])]; - tensor var_4368 = const()[name = tensor("op_4368"), val = tensor([1, 242, 192])]; - tensor var_4364_cast_fp16 = transpose(perm = var_4363, x = context_53_cast_fp16)[name = tensor("transpose_137")]; - tensor input_1123_cast_fp16 = reshape(shape = var_4368, x = var_4364_cast_fp16)[name = tensor("input_1123_cast_fp16")]; - tensor model_transformer_encoder_layers_13_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226121344)))]; - tensor model_transformer_encoder_layers_13_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226195136)))]; - tensor linear_235_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_out_projection_weight_to_fp16, x = input_1123_cast_fp16)[name = tensor("linear_235_cast_fp16")]; - tensor input_1127_cast_fp16 = add(x = linear_235_cast_fp16, y = input_1119_cast_fp16)[name = tensor("input_1127_cast_fp16")]; + tensor var_4368 = const()[name = tensor("op_4368"), val = tensor([1, 390, 192])]; + tensor var_4364_cast_fp16 = transpose(perm = var_4363, x = context_53_cast_fp16)[name = tensor("transpose_137")]; + tensor input_1123_cast_fp16 = reshape(shape = var_4368, x = var_4364_cast_fp16)[name = tensor("input_1123_cast_fp16")]; + tensor model_transformer_encoder_layers_13_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231274112)))]; + tensor model_transformer_encoder_layers_13_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231347904)))]; + tensor linear_235_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_13_first_sub_layer_out_projection_weight_to_fp16, x = input_1123_cast_fp16)[name = tensor("linear_235_cast_fp16")]; + tensor input_1127_cast_fp16 = add(x = linear_235_cast_fp16, y = input_1119_cast_fp16)[name = tensor("input_1127_cast_fp16")]; tensor input_1129_axes_0 = const()[name = tensor("input_1129_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_13_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226195584)))]; - tensor model_transformer_encoder_layers_13_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226196032)))]; - tensor input_1129_cast_fp16 = layer_norm(axes = input_1129_axes_0, beta = model_transformer_encoder_layers_13_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_13_layer_norm_1_weight_to_fp16, x = input_1127_cast_fp16)[name = tensor("input_1129_cast_fp16")]; - tensor model_transformer_encoder_layers_13_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226196480)))]; - tensor model_transformer_encoder_layers_13_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226491456)))]; - tensor linear_236_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_13_second_sub_layer_dense_in_weight_to_fp16, x = input_1129_cast_fp16)[name = tensor("linear_236_cast_fp16")]; - tensor input_1131_cast_fp16 = relu(x = linear_236_cast_fp16)[name = tensor("input_1131_cast_fp16")]; - tensor model_transformer_encoder_layers_13_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226493056)))]; - tensor model_transformer_encoder_layers_13_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226788032)))]; - tensor linear_237_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_13_second_sub_layer_dense_out_weight_to_fp16, x = input_1131_cast_fp16)[name = tensor("linear_237_cast_fp16")]; - tensor input_1135_cast_fp16 = add(x = linear_237_cast_fp16, y = input_1129_cast_fp16)[name = tensor("input_1135_cast_fp16")]; + tensor model_transformer_encoder_layers_13_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231348352)))]; + tensor model_transformer_encoder_layers_13_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231348800)))]; + tensor input_1129_cast_fp16 = layer_norm(axes = input_1129_axes_0, beta = model_transformer_encoder_layers_13_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_13_layer_norm_1_weight_to_fp16, x = input_1127_cast_fp16)[name = tensor("input_1129_cast_fp16")]; + tensor model_transformer_encoder_layers_13_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231349248)))]; + tensor model_transformer_encoder_layers_13_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231644224)))]; + tensor linear_236_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_13_second_sub_layer_dense_in_weight_to_fp16, x = input_1129_cast_fp16)[name = tensor("linear_236_cast_fp16")]; + tensor input_1131_cast_fp16 = relu(x = linear_236_cast_fp16)[name = tensor("input_1131_cast_fp16")]; + tensor model_transformer_encoder_layers_13_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231645824)))]; + tensor model_transformer_encoder_layers_13_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231940800)))]; + tensor linear_237_cast_fp16 = linear(bias = model_transformer_encoder_layers_13_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_13_second_sub_layer_dense_out_weight_to_fp16, x = input_1131_cast_fp16)[name = tensor("linear_237_cast_fp16")]; + tensor input_1135_cast_fp16 = add(x = linear_237_cast_fp16, y = input_1129_cast_fp16)[name = tensor("input_1135_cast_fp16")]; tensor input_1137_axes_0 = const()[name = tensor("input_1137_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_13_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226788480)))]; - tensor model_transformer_encoder_layers_13_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226788928)))]; - tensor input_1137_cast_fp16 = layer_norm(axes = input_1137_axes_0, beta = model_transformer_encoder_layers_13_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_13_layer_norm_2_weight_to_fp16, x = input_1135_cast_fp16)[name = tensor("input_1137_cast_fp16")]; - tensor model_transformer_encoder_layers_14_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226789376)))]; - tensor model_transformer_encoder_layers_14_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226863168)))]; - tensor linear_238_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_query_net_weight_to_fp16, x = input_1137_cast_fp16)[name = tensor("linear_238_cast_fp16")]; - tensor model_transformer_encoder_layers_14_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226863616)))]; - tensor model_transformer_encoder_layers_14_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226937408)))]; - tensor linear_239_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_key_net_weight_to_fp16, x = input_1137_cast_fp16)[name = tensor("linear_239_cast_fp16")]; - tensor model_transformer_encoder_layers_14_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(226937856)))]; - tensor model_transformer_encoder_layers_14_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227011648)))]; - tensor linear_240_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_value_net_weight_to_fp16, x = input_1137_cast_fp16)[name = tensor("linear_240_cast_fp16")]; - tensor var_4419 = const()[name = tensor("op_4419"), val = tensor([1, 242, 8, 24])]; - tensor x_547_cast_fp16 = reshape(shape = var_4419, x = linear_238_cast_fp16)[name = tensor("x_547_cast_fp16")]; + tensor model_transformer_encoder_layers_13_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231941248)))]; + tensor model_transformer_encoder_layers_13_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_13_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231941696)))]; + tensor input_1137_cast_fp16 = layer_norm(axes = input_1137_axes_0, beta = model_transformer_encoder_layers_13_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_13_layer_norm_2_weight_to_fp16, x = input_1135_cast_fp16)[name = tensor("input_1137_cast_fp16")]; + tensor model_transformer_encoder_layers_14_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(231942144)))]; + tensor model_transformer_encoder_layers_14_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232015936)))]; + tensor linear_238_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_query_net_weight_to_fp16, x = input_1137_cast_fp16)[name = tensor("linear_238_cast_fp16")]; + tensor model_transformer_encoder_layers_14_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232016384)))]; + tensor model_transformer_encoder_layers_14_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232090176)))]; + tensor linear_239_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_key_net_weight_to_fp16, x = input_1137_cast_fp16)[name = tensor("linear_239_cast_fp16")]; + tensor model_transformer_encoder_layers_14_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232090624)))]; + tensor model_transformer_encoder_layers_14_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232164416)))]; + tensor linear_240_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_value_net_weight_to_fp16, x = input_1137_cast_fp16)[name = tensor("linear_240_cast_fp16")]; + tensor var_4419 = const()[name = tensor("op_4419"), val = tensor([1, 390, 8, 24])]; + tensor x_547_cast_fp16 = reshape(shape = var_4419, x = linear_238_cast_fp16)[name = tensor("x_547_cast_fp16")]; tensor _inversed_query_63_y_0_to_fp16 = const()[name = tensor("_inversed_query_63_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_63_cast_fp16 = mul(x = x_547_cast_fp16, y = _inversed_query_63_y_0_to_fp16)[name = tensor("_inversed_query_63_cast_fp16")]; - tensor var_4427 = const()[name = tensor("op_4427"), val = tensor([1, 242, 8, 24])]; - tensor x_551_cast_fp16 = reshape(shape = var_4427, x = linear_239_cast_fp16)[name = tensor("x_551_cast_fp16")]; + tensor _inversed_query_63_cast_fp16 = mul(x = x_547_cast_fp16, y = _inversed_query_63_y_0_to_fp16)[name = tensor("_inversed_query_63_cast_fp16")]; + tensor var_4427 = const()[name = tensor("op_4427"), val = tensor([1, 390, 8, 24])]; + tensor x_551_cast_fp16 = reshape(shape = var_4427, x = linear_239_cast_fp16)[name = tensor("x_551_cast_fp16")]; tensor _inversed_key_29_y_0_to_fp16 = const()[name = tensor("_inversed_key_29_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_29_cast_fp16 = mul(x = x_551_cast_fp16, y = _inversed_key_29_y_0_to_fp16)[name = tensor("_inversed_key_29_cast_fp16")]; - tensor var_4435 = const()[name = tensor("op_4435"), val = tensor([1, 242, 8, 24])]; - tensor x_555_cast_fp16 = reshape(shape = var_4435, x = linear_240_cast_fp16)[name = tensor("x_555_cast_fp16")]; + tensor _inversed_key_29_cast_fp16 = mul(x = x_551_cast_fp16, y = _inversed_key_29_y_0_to_fp16)[name = tensor("_inversed_key_29_cast_fp16")]; + tensor var_4435 = const()[name = tensor("op_4435"), val = tensor([1, 390, 8, 24])]; + tensor x_555_cast_fp16 = reshape(shape = var_4435, x = linear_240_cast_fp16)[name = tensor("x_555_cast_fp16")]; tensor var_4437 = const()[name = tensor("op_4437"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_57_transpose_x_1 = const()[name = tensor("attention_scores_57_transpose_x_1"), val = tensor(false)]; tensor attention_scores_57_transpose_y_1 = const()[name = tensor("attention_scores_57_transpose_y_1"), val = tensor(true)]; tensor transpose_113_perm_0 = const()[name = tensor("transpose_113_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_114_perm_0 = const()[name = tensor("transpose_114_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_114 = transpose(perm = transpose_114_perm_0, x = _inversed_key_29_cast_fp16)[name = tensor("transpose_134")]; - tensor transpose_113 = transpose(perm = transpose_113_perm_0, x = _inversed_query_63_cast_fp16)[name = tensor("transpose_135")]; - tensor attention_scores_57_cast_fp16 = matmul(transpose_x = attention_scores_57_transpose_x_1, transpose_y = attention_scores_57_transpose_y_1, x = transpose_113, y = transpose_114)[name = tensor("attention_scores_57_cast_fp16")]; - tensor attention_scores_59_cast_fp16 = add(x = attention_scores_57_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_59_cast_fp16")]; - tensor input_1139_cast_fp16 = softmax(axis = var_3111, x = attention_scores_59_cast_fp16)[name = tensor("input_1139_cast_fp16")]; + tensor transpose_114 = transpose(perm = transpose_114_perm_0, x = _inversed_key_29_cast_fp16)[name = tensor("transpose_134")]; + tensor transpose_113 = transpose(perm = transpose_113_perm_0, x = _inversed_query_63_cast_fp16)[name = tensor("transpose_135")]; + tensor attention_scores_57_cast_fp16 = matmul(transpose_x = attention_scores_57_transpose_x_1, transpose_y = attention_scores_57_transpose_y_1, x = transpose_113, y = transpose_114)[name = tensor("attention_scores_57_cast_fp16")]; + tensor attention_scores_59_cast_fp16 = add(x = attention_scores_57_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_59_cast_fp16")]; + tensor input_1139_cast_fp16 = softmax(axis = var_3111, x = attention_scores_59_cast_fp16)[name = tensor("input_1139_cast_fp16")]; tensor context_57_transpose_x_0 = const()[name = tensor("context_57_transpose_x_0"), val = tensor(false)]; tensor context_57_transpose_y_0 = const()[name = tensor("context_57_transpose_y_0"), val = tensor(false)]; - tensor value_63_cast_fp16 = transpose(perm = var_4437, x = x_555_cast_fp16)[name = tensor("transpose_136")]; - tensor context_57_cast_fp16 = matmul(transpose_x = context_57_transpose_x_0, transpose_y = context_57_transpose_y_0, x = input_1139_cast_fp16, y = value_63_cast_fp16)[name = tensor("context_57_cast_fp16")]; + tensor value_63_cast_fp16 = transpose(perm = var_4437, x = x_555_cast_fp16)[name = tensor("transpose_136")]; + tensor context_57_cast_fp16 = matmul(transpose_x = context_57_transpose_x_0, transpose_y = context_57_transpose_y_0, x = input_1139_cast_fp16, y = value_63_cast_fp16)[name = tensor("context_57_cast_fp16")]; tensor var_4451 = const()[name = tensor("op_4451"), val = tensor([0, 2, 1, 3])]; - tensor var_4456 = const()[name = tensor("op_4456"), val = tensor([1, 242, 192])]; - tensor var_4452_cast_fp16 = transpose(perm = var_4451, x = context_57_cast_fp16)[name = tensor("transpose_133")]; - tensor input_1141_cast_fp16 = reshape(shape = var_4456, x = var_4452_cast_fp16)[name = tensor("input_1141_cast_fp16")]; - tensor model_transformer_encoder_layers_14_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227012096)))]; - tensor model_transformer_encoder_layers_14_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227085888)))]; - tensor linear_241_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_out_projection_weight_to_fp16, x = input_1141_cast_fp16)[name = tensor("linear_241_cast_fp16")]; - tensor input_1145_cast_fp16 = add(x = linear_241_cast_fp16, y = input_1137_cast_fp16)[name = tensor("input_1145_cast_fp16")]; + tensor var_4456 = const()[name = tensor("op_4456"), val = tensor([1, 390, 192])]; + tensor var_4452_cast_fp16 = transpose(perm = var_4451, x = context_57_cast_fp16)[name = tensor("transpose_133")]; + tensor input_1141_cast_fp16 = reshape(shape = var_4456, x = var_4452_cast_fp16)[name = tensor("input_1141_cast_fp16")]; + tensor model_transformer_encoder_layers_14_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232164864)))]; + tensor model_transformer_encoder_layers_14_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232238656)))]; + tensor linear_241_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_14_first_sub_layer_out_projection_weight_to_fp16, x = input_1141_cast_fp16)[name = tensor("linear_241_cast_fp16")]; + tensor input_1145_cast_fp16 = add(x = linear_241_cast_fp16, y = input_1137_cast_fp16)[name = tensor("input_1145_cast_fp16")]; tensor input_1147_axes_0 = const()[name = tensor("input_1147_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_14_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227086336)))]; - tensor model_transformer_encoder_layers_14_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227086784)))]; - tensor input_1147_cast_fp16 = layer_norm(axes = input_1147_axes_0, beta = model_transformer_encoder_layers_14_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_14_layer_norm_1_weight_to_fp16, x = input_1145_cast_fp16)[name = tensor("input_1147_cast_fp16")]; - tensor model_transformer_encoder_layers_14_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227087232)))]; - tensor model_transformer_encoder_layers_14_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227382208)))]; - tensor linear_242_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_14_second_sub_layer_dense_in_weight_to_fp16, x = input_1147_cast_fp16)[name = tensor("linear_242_cast_fp16")]; - tensor input_1149_cast_fp16 = relu(x = linear_242_cast_fp16)[name = tensor("input_1149_cast_fp16")]; - tensor model_transformer_encoder_layers_14_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227383808)))]; - tensor model_transformer_encoder_layers_14_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227678784)))]; - tensor linear_243_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_14_second_sub_layer_dense_out_weight_to_fp16, x = input_1149_cast_fp16)[name = tensor("linear_243_cast_fp16")]; - tensor input_1153_cast_fp16 = add(x = linear_243_cast_fp16, y = input_1147_cast_fp16)[name = tensor("input_1153_cast_fp16")]; + tensor model_transformer_encoder_layers_14_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232239104)))]; + tensor model_transformer_encoder_layers_14_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232239552)))]; + tensor input_1147_cast_fp16 = layer_norm(axes = input_1147_axes_0, beta = model_transformer_encoder_layers_14_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_14_layer_norm_1_weight_to_fp16, x = input_1145_cast_fp16)[name = tensor("input_1147_cast_fp16")]; + tensor model_transformer_encoder_layers_14_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232240000)))]; + tensor model_transformer_encoder_layers_14_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232534976)))]; + tensor linear_242_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_14_second_sub_layer_dense_in_weight_to_fp16, x = input_1147_cast_fp16)[name = tensor("linear_242_cast_fp16")]; + tensor input_1149_cast_fp16 = relu(x = linear_242_cast_fp16)[name = tensor("input_1149_cast_fp16")]; + tensor model_transformer_encoder_layers_14_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232536576)))]; + tensor model_transformer_encoder_layers_14_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232831552)))]; + tensor linear_243_cast_fp16 = linear(bias = model_transformer_encoder_layers_14_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_14_second_sub_layer_dense_out_weight_to_fp16, x = input_1149_cast_fp16)[name = tensor("linear_243_cast_fp16")]; + tensor input_1153_cast_fp16 = add(x = linear_243_cast_fp16, y = input_1147_cast_fp16)[name = tensor("input_1153_cast_fp16")]; tensor input_1155_axes_0 = const()[name = tensor("input_1155_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_14_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227679232)))]; - tensor model_transformer_encoder_layers_14_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227679680)))]; - tensor input_1155_cast_fp16 = layer_norm(axes = input_1155_axes_0, beta = model_transformer_encoder_layers_14_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_14_layer_norm_2_weight_to_fp16, x = input_1153_cast_fp16)[name = tensor("input_1155_cast_fp16")]; - tensor model_transformer_encoder_layers_15_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227680128)))]; - tensor model_transformer_encoder_layers_15_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227753920)))]; - tensor linear_244_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_query_net_weight_to_fp16, x = input_1155_cast_fp16)[name = tensor("linear_244_cast_fp16")]; - tensor model_transformer_encoder_layers_15_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227754368)))]; - tensor model_transformer_encoder_layers_15_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227828160)))]; - tensor linear_245_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_key_net_weight_to_fp16, x = input_1155_cast_fp16)[name = tensor("linear_245_cast_fp16")]; - tensor model_transformer_encoder_layers_15_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227828608)))]; - tensor model_transformer_encoder_layers_15_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227902400)))]; - tensor linear_246_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_value_net_weight_to_fp16, x = input_1155_cast_fp16)[name = tensor("linear_246_cast_fp16")]; - tensor var_4507 = const()[name = tensor("op_4507"), val = tensor([1, 242, 8, 24])]; - tensor x_559_cast_fp16 = reshape(shape = var_4507, x = linear_244_cast_fp16)[name = tensor("x_559_cast_fp16")]; + tensor model_transformer_encoder_layers_14_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232832000)))]; + tensor model_transformer_encoder_layers_14_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_14_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232832448)))]; + tensor input_1155_cast_fp16 = layer_norm(axes = input_1155_axes_0, beta = model_transformer_encoder_layers_14_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_14_layer_norm_2_weight_to_fp16, x = input_1153_cast_fp16)[name = tensor("input_1155_cast_fp16")]; + tensor model_transformer_encoder_layers_15_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232832896)))]; + tensor model_transformer_encoder_layers_15_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232906688)))]; + tensor linear_244_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_query_net_weight_to_fp16, x = input_1155_cast_fp16)[name = tensor("linear_244_cast_fp16")]; + tensor model_transformer_encoder_layers_15_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232907136)))]; + tensor model_transformer_encoder_layers_15_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232980928)))]; + tensor linear_245_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_key_net_weight_to_fp16, x = input_1155_cast_fp16)[name = tensor("linear_245_cast_fp16")]; + tensor model_transformer_encoder_layers_15_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(232981376)))]; + tensor model_transformer_encoder_layers_15_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233055168)))]; + tensor linear_246_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_value_net_weight_to_fp16, x = input_1155_cast_fp16)[name = tensor("linear_246_cast_fp16")]; + tensor var_4507 = const()[name = tensor("op_4507"), val = tensor([1, 390, 8, 24])]; + tensor x_559_cast_fp16 = reshape(shape = var_4507, x = linear_244_cast_fp16)[name = tensor("x_559_cast_fp16")]; tensor _inversed_query_65_y_0_to_fp16 = const()[name = tensor("_inversed_query_65_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_65_cast_fp16 = mul(x = x_559_cast_fp16, y = _inversed_query_65_y_0_to_fp16)[name = tensor("_inversed_query_65_cast_fp16")]; - tensor var_4515 = const()[name = tensor("op_4515"), val = tensor([1, 242, 8, 24])]; - tensor x_563_cast_fp16 = reshape(shape = var_4515, x = linear_245_cast_fp16)[name = tensor("x_563_cast_fp16")]; + tensor _inversed_query_65_cast_fp16 = mul(x = x_559_cast_fp16, y = _inversed_query_65_y_0_to_fp16)[name = tensor("_inversed_query_65_cast_fp16")]; + tensor var_4515 = const()[name = tensor("op_4515"), val = tensor([1, 390, 8, 24])]; + tensor x_563_cast_fp16 = reshape(shape = var_4515, x = linear_245_cast_fp16)[name = tensor("x_563_cast_fp16")]; tensor _inversed_key_31_y_0_to_fp16 = const()[name = tensor("_inversed_key_31_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_31_cast_fp16 = mul(x = x_563_cast_fp16, y = _inversed_key_31_y_0_to_fp16)[name = tensor("_inversed_key_31_cast_fp16")]; - tensor var_4523 = const()[name = tensor("op_4523"), val = tensor([1, 242, 8, 24])]; - tensor x_567_cast_fp16 = reshape(shape = var_4523, x = linear_246_cast_fp16)[name = tensor("x_567_cast_fp16")]; + tensor _inversed_key_31_cast_fp16 = mul(x = x_563_cast_fp16, y = _inversed_key_31_y_0_to_fp16)[name = tensor("_inversed_key_31_cast_fp16")]; + tensor var_4523 = const()[name = tensor("op_4523"), val = tensor([1, 390, 8, 24])]; + tensor x_567_cast_fp16 = reshape(shape = var_4523, x = linear_246_cast_fp16)[name = tensor("x_567_cast_fp16")]; tensor var_4525 = const()[name = tensor("op_4525"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_61_transpose_x_1 = const()[name = tensor("attention_scores_61_transpose_x_1"), val = tensor(false)]; tensor attention_scores_61_transpose_y_1 = const()[name = tensor("attention_scores_61_transpose_y_1"), val = tensor(true)]; tensor transpose_115_perm_0 = const()[name = tensor("transpose_115_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_116_perm_0 = const()[name = tensor("transpose_116_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_116 = transpose(perm = transpose_116_perm_0, x = _inversed_key_31_cast_fp16)[name = tensor("transpose_130")]; - tensor transpose_115 = transpose(perm = transpose_115_perm_0, x = _inversed_query_65_cast_fp16)[name = tensor("transpose_131")]; - tensor attention_scores_61_cast_fp16 = matmul(transpose_x = attention_scores_61_transpose_x_1, transpose_y = attention_scores_61_transpose_y_1, x = transpose_115, y = transpose_116)[name = tensor("attention_scores_61_cast_fp16")]; - tensor attention_scores_63_cast_fp16 = add(x = attention_scores_61_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_63_cast_fp16")]; - tensor input_1157_cast_fp16 = softmax(axis = var_3111, x = attention_scores_63_cast_fp16)[name = tensor("input_1157_cast_fp16")]; + tensor transpose_116 = transpose(perm = transpose_116_perm_0, x = _inversed_key_31_cast_fp16)[name = tensor("transpose_130")]; + tensor transpose_115 = transpose(perm = transpose_115_perm_0, x = _inversed_query_65_cast_fp16)[name = tensor("transpose_131")]; + tensor attention_scores_61_cast_fp16 = matmul(transpose_x = attention_scores_61_transpose_x_1, transpose_y = attention_scores_61_transpose_y_1, x = transpose_115, y = transpose_116)[name = tensor("attention_scores_61_cast_fp16")]; + tensor attention_scores_63_cast_fp16 = add(x = attention_scores_61_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_63_cast_fp16")]; + tensor input_1157_cast_fp16 = softmax(axis = var_3111, x = attention_scores_63_cast_fp16)[name = tensor("input_1157_cast_fp16")]; tensor context_61_transpose_x_0 = const()[name = tensor("context_61_transpose_x_0"), val = tensor(false)]; tensor context_61_transpose_y_0 = const()[name = tensor("context_61_transpose_y_0"), val = tensor(false)]; - tensor value_65_cast_fp16 = transpose(perm = var_4525, x = x_567_cast_fp16)[name = tensor("transpose_132")]; - tensor context_61_cast_fp16 = matmul(transpose_x = context_61_transpose_x_0, transpose_y = context_61_transpose_y_0, x = input_1157_cast_fp16, y = value_65_cast_fp16)[name = tensor("context_61_cast_fp16")]; + tensor value_65_cast_fp16 = transpose(perm = var_4525, x = x_567_cast_fp16)[name = tensor("transpose_132")]; + tensor context_61_cast_fp16 = matmul(transpose_x = context_61_transpose_x_0, transpose_y = context_61_transpose_y_0, x = input_1157_cast_fp16, y = value_65_cast_fp16)[name = tensor("context_61_cast_fp16")]; tensor var_4539 = const()[name = tensor("op_4539"), val = tensor([0, 2, 1, 3])]; - tensor var_4544 = const()[name = tensor("op_4544"), val = tensor([1, 242, 192])]; - tensor var_4540_cast_fp16 = transpose(perm = var_4539, x = context_61_cast_fp16)[name = tensor("transpose_129")]; - tensor input_1159_cast_fp16 = reshape(shape = var_4544, x = var_4540_cast_fp16)[name = tensor("input_1159_cast_fp16")]; - tensor model_transformer_encoder_layers_15_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227902848)))]; - tensor model_transformer_encoder_layers_15_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227976640)))]; - tensor linear_247_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_out_projection_weight_to_fp16, x = input_1159_cast_fp16)[name = tensor("linear_247_cast_fp16")]; - tensor input_1163_cast_fp16 = add(x = linear_247_cast_fp16, y = input_1155_cast_fp16)[name = tensor("input_1163_cast_fp16")]; + tensor var_4544 = const()[name = tensor("op_4544"), val = tensor([1, 390, 192])]; + tensor var_4540_cast_fp16 = transpose(perm = var_4539, x = context_61_cast_fp16)[name = tensor("transpose_129")]; + tensor input_1159_cast_fp16 = reshape(shape = var_4544, x = var_4540_cast_fp16)[name = tensor("input_1159_cast_fp16")]; + tensor model_transformer_encoder_layers_15_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233055616)))]; + tensor model_transformer_encoder_layers_15_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233129408)))]; + tensor linear_247_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_15_first_sub_layer_out_projection_weight_to_fp16, x = input_1159_cast_fp16)[name = tensor("linear_247_cast_fp16")]; + tensor input_1163_cast_fp16 = add(x = linear_247_cast_fp16, y = input_1155_cast_fp16)[name = tensor("input_1163_cast_fp16")]; tensor input_1165_axes_0 = const()[name = tensor("input_1165_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_15_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227977088)))]; - tensor model_transformer_encoder_layers_15_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227977536)))]; - tensor input_1165_cast_fp16 = layer_norm(axes = input_1165_axes_0, beta = model_transformer_encoder_layers_15_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_15_layer_norm_1_weight_to_fp16, x = input_1163_cast_fp16)[name = tensor("input_1165_cast_fp16")]; - tensor model_transformer_encoder_layers_15_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(227977984)))]; - tensor model_transformer_encoder_layers_15_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228272960)))]; - tensor linear_248_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_15_second_sub_layer_dense_in_weight_to_fp16, x = input_1165_cast_fp16)[name = tensor("linear_248_cast_fp16")]; - tensor input_1167_cast_fp16 = relu(x = linear_248_cast_fp16)[name = tensor("input_1167_cast_fp16")]; - tensor model_transformer_encoder_layers_15_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228274560)))]; - tensor model_transformer_encoder_layers_15_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228569536)))]; - tensor linear_249_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_15_second_sub_layer_dense_out_weight_to_fp16, x = input_1167_cast_fp16)[name = tensor("linear_249_cast_fp16")]; - tensor input_1171_cast_fp16 = add(x = linear_249_cast_fp16, y = input_1165_cast_fp16)[name = tensor("input_1171_cast_fp16")]; + tensor model_transformer_encoder_layers_15_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233129856)))]; + tensor model_transformer_encoder_layers_15_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233130304)))]; + tensor input_1165_cast_fp16 = layer_norm(axes = input_1165_axes_0, beta = model_transformer_encoder_layers_15_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_15_layer_norm_1_weight_to_fp16, x = input_1163_cast_fp16)[name = tensor("input_1165_cast_fp16")]; + tensor model_transformer_encoder_layers_15_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233130752)))]; + tensor model_transformer_encoder_layers_15_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233425728)))]; + tensor linear_248_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_15_second_sub_layer_dense_in_weight_to_fp16, x = input_1165_cast_fp16)[name = tensor("linear_248_cast_fp16")]; + tensor input_1167_cast_fp16 = relu(x = linear_248_cast_fp16)[name = tensor("input_1167_cast_fp16")]; + tensor model_transformer_encoder_layers_15_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233427328)))]; + tensor model_transformer_encoder_layers_15_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233722304)))]; + tensor linear_249_cast_fp16 = linear(bias = model_transformer_encoder_layers_15_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_15_second_sub_layer_dense_out_weight_to_fp16, x = input_1167_cast_fp16)[name = tensor("linear_249_cast_fp16")]; + tensor input_1171_cast_fp16 = add(x = linear_249_cast_fp16, y = input_1165_cast_fp16)[name = tensor("input_1171_cast_fp16")]; tensor input_1173_axes_0 = const()[name = tensor("input_1173_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_15_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228569984)))]; - tensor model_transformer_encoder_layers_15_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228570432)))]; - tensor input_1173_cast_fp16 = layer_norm(axes = input_1173_axes_0, beta = model_transformer_encoder_layers_15_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_15_layer_norm_2_weight_to_fp16, x = input_1171_cast_fp16)[name = tensor("input_1173_cast_fp16")]; - tensor model_transformer_encoder_layers_16_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228570880)))]; - tensor model_transformer_encoder_layers_16_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228644672)))]; - tensor linear_250_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_query_net_weight_to_fp16, x = input_1173_cast_fp16)[name = tensor("linear_250_cast_fp16")]; - tensor model_transformer_encoder_layers_16_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228645120)))]; - tensor model_transformer_encoder_layers_16_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228718912)))]; - tensor linear_251_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_key_net_weight_to_fp16, x = input_1173_cast_fp16)[name = tensor("linear_251_cast_fp16")]; - tensor model_transformer_encoder_layers_16_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228719360)))]; - tensor model_transformer_encoder_layers_16_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228793152)))]; - tensor linear_252_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_value_net_weight_to_fp16, x = input_1173_cast_fp16)[name = tensor("linear_252_cast_fp16")]; - tensor var_4595 = const()[name = tensor("op_4595"), val = tensor([1, 242, 8, 24])]; - tensor x_571_cast_fp16 = reshape(shape = var_4595, x = linear_250_cast_fp16)[name = tensor("x_571_cast_fp16")]; + tensor model_transformer_encoder_layers_15_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233722752)))]; + tensor model_transformer_encoder_layers_15_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_15_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233723200)))]; + tensor input_1173_cast_fp16 = layer_norm(axes = input_1173_axes_0, beta = model_transformer_encoder_layers_15_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_15_layer_norm_2_weight_to_fp16, x = input_1171_cast_fp16)[name = tensor("input_1173_cast_fp16")]; + tensor model_transformer_encoder_layers_16_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233723648)))]; + tensor model_transformer_encoder_layers_16_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233797440)))]; + tensor linear_250_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_query_net_weight_to_fp16, x = input_1173_cast_fp16)[name = tensor("linear_250_cast_fp16")]; + tensor model_transformer_encoder_layers_16_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233797888)))]; + tensor model_transformer_encoder_layers_16_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233871680)))]; + tensor linear_251_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_key_net_weight_to_fp16, x = input_1173_cast_fp16)[name = tensor("linear_251_cast_fp16")]; + tensor model_transformer_encoder_layers_16_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233872128)))]; + tensor model_transformer_encoder_layers_16_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233945920)))]; + tensor linear_252_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_value_net_weight_to_fp16, x = input_1173_cast_fp16)[name = tensor("linear_252_cast_fp16")]; + tensor var_4595 = const()[name = tensor("op_4595"), val = tensor([1, 390, 8, 24])]; + tensor x_571_cast_fp16 = reshape(shape = var_4595, x = linear_250_cast_fp16)[name = tensor("x_571_cast_fp16")]; tensor _inversed_query_67_y_0_to_fp16 = const()[name = tensor("_inversed_query_67_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_67_cast_fp16 = mul(x = x_571_cast_fp16, y = _inversed_query_67_y_0_to_fp16)[name = tensor("_inversed_query_67_cast_fp16")]; - tensor var_4603 = const()[name = tensor("op_4603"), val = tensor([1, 242, 8, 24])]; - tensor x_575_cast_fp16 = reshape(shape = var_4603, x = linear_251_cast_fp16)[name = tensor("x_575_cast_fp16")]; + tensor _inversed_query_67_cast_fp16 = mul(x = x_571_cast_fp16, y = _inversed_query_67_y_0_to_fp16)[name = tensor("_inversed_query_67_cast_fp16")]; + tensor var_4603 = const()[name = tensor("op_4603"), val = tensor([1, 390, 8, 24])]; + tensor x_575_cast_fp16 = reshape(shape = var_4603, x = linear_251_cast_fp16)[name = tensor("x_575_cast_fp16")]; tensor _inversed_key_33_y_0_to_fp16 = const()[name = tensor("_inversed_key_33_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_33_cast_fp16 = mul(x = x_575_cast_fp16, y = _inversed_key_33_y_0_to_fp16)[name = tensor("_inversed_key_33_cast_fp16")]; - tensor var_4611 = const()[name = tensor("op_4611"), val = tensor([1, 242, 8, 24])]; - tensor x_579_cast_fp16 = reshape(shape = var_4611, x = linear_252_cast_fp16)[name = tensor("x_579_cast_fp16")]; + tensor _inversed_key_33_cast_fp16 = mul(x = x_575_cast_fp16, y = _inversed_key_33_y_0_to_fp16)[name = tensor("_inversed_key_33_cast_fp16")]; + tensor var_4611 = const()[name = tensor("op_4611"), val = tensor([1, 390, 8, 24])]; + tensor x_579_cast_fp16 = reshape(shape = var_4611, x = linear_252_cast_fp16)[name = tensor("x_579_cast_fp16")]; tensor var_4613 = const()[name = tensor("op_4613"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_65_transpose_x_1 = const()[name = tensor("attention_scores_65_transpose_x_1"), val = tensor(false)]; tensor attention_scores_65_transpose_y_1 = const()[name = tensor("attention_scores_65_transpose_y_1"), val = tensor(true)]; tensor transpose_117_perm_0 = const()[name = tensor("transpose_117_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_118_perm_0 = const()[name = tensor("transpose_118_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_118 = transpose(perm = transpose_118_perm_0, x = _inversed_key_33_cast_fp16)[name = tensor("transpose_126")]; - tensor transpose_117 = transpose(perm = transpose_117_perm_0, x = _inversed_query_67_cast_fp16)[name = tensor("transpose_127")]; - tensor attention_scores_65_cast_fp16 = matmul(transpose_x = attention_scores_65_transpose_x_1, transpose_y = attention_scores_65_transpose_y_1, x = transpose_117, y = transpose_118)[name = tensor("attention_scores_65_cast_fp16")]; - tensor attention_scores_67_cast_fp16 = add(x = attention_scores_65_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_67_cast_fp16")]; - tensor input_1175_cast_fp16 = softmax(axis = var_3111, x = attention_scores_67_cast_fp16)[name = tensor("input_1175_cast_fp16")]; + tensor transpose_118 = transpose(perm = transpose_118_perm_0, x = _inversed_key_33_cast_fp16)[name = tensor("transpose_126")]; + tensor transpose_117 = transpose(perm = transpose_117_perm_0, x = _inversed_query_67_cast_fp16)[name = tensor("transpose_127")]; + tensor attention_scores_65_cast_fp16 = matmul(transpose_x = attention_scores_65_transpose_x_1, transpose_y = attention_scores_65_transpose_y_1, x = transpose_117, y = transpose_118)[name = tensor("attention_scores_65_cast_fp16")]; + tensor attention_scores_67_cast_fp16 = add(x = attention_scores_65_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_67_cast_fp16")]; + tensor input_1175_cast_fp16 = softmax(axis = var_3111, x = attention_scores_67_cast_fp16)[name = tensor("input_1175_cast_fp16")]; tensor context_65_transpose_x_0 = const()[name = tensor("context_65_transpose_x_0"), val = tensor(false)]; tensor context_65_transpose_y_0 = const()[name = tensor("context_65_transpose_y_0"), val = tensor(false)]; - tensor value_67_cast_fp16 = transpose(perm = var_4613, x = x_579_cast_fp16)[name = tensor("transpose_128")]; - tensor context_65_cast_fp16 = matmul(transpose_x = context_65_transpose_x_0, transpose_y = context_65_transpose_y_0, x = input_1175_cast_fp16, y = value_67_cast_fp16)[name = tensor("context_65_cast_fp16")]; + tensor value_67_cast_fp16 = transpose(perm = var_4613, x = x_579_cast_fp16)[name = tensor("transpose_128")]; + tensor context_65_cast_fp16 = matmul(transpose_x = context_65_transpose_x_0, transpose_y = context_65_transpose_y_0, x = input_1175_cast_fp16, y = value_67_cast_fp16)[name = tensor("context_65_cast_fp16")]; tensor var_4627 = const()[name = tensor("op_4627"), val = tensor([0, 2, 1, 3])]; - tensor var_4632 = const()[name = tensor("op_4632"), val = tensor([1, 242, 192])]; - tensor var_4628_cast_fp16 = transpose(perm = var_4627, x = context_65_cast_fp16)[name = tensor("transpose_125")]; - tensor input_1177_cast_fp16 = reshape(shape = var_4632, x = var_4628_cast_fp16)[name = tensor("input_1177_cast_fp16")]; - tensor model_transformer_encoder_layers_16_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228793600)))]; - tensor model_transformer_encoder_layers_16_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228867392)))]; - tensor linear_253_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_out_projection_weight_to_fp16, x = input_1177_cast_fp16)[name = tensor("linear_253_cast_fp16")]; - tensor input_1181_cast_fp16 = add(x = linear_253_cast_fp16, y = input_1173_cast_fp16)[name = tensor("input_1181_cast_fp16")]; + tensor var_4632 = const()[name = tensor("op_4632"), val = tensor([1, 390, 192])]; + tensor var_4628_cast_fp16 = transpose(perm = var_4627, x = context_65_cast_fp16)[name = tensor("transpose_125")]; + tensor input_1177_cast_fp16 = reshape(shape = var_4632, x = var_4628_cast_fp16)[name = tensor("input_1177_cast_fp16")]; + tensor model_transformer_encoder_layers_16_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(233946368)))]; + tensor model_transformer_encoder_layers_16_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234020160)))]; + tensor linear_253_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_16_first_sub_layer_out_projection_weight_to_fp16, x = input_1177_cast_fp16)[name = tensor("linear_253_cast_fp16")]; + tensor input_1181_cast_fp16 = add(x = linear_253_cast_fp16, y = input_1173_cast_fp16)[name = tensor("input_1181_cast_fp16")]; tensor input_1183_axes_0 = const()[name = tensor("input_1183_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_16_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228867840)))]; - tensor model_transformer_encoder_layers_16_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228868288)))]; - tensor input_1183_cast_fp16 = layer_norm(axes = input_1183_axes_0, beta = model_transformer_encoder_layers_16_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_16_layer_norm_1_weight_to_fp16, x = input_1181_cast_fp16)[name = tensor("input_1183_cast_fp16")]; - tensor model_transformer_encoder_layers_16_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(228868736)))]; - tensor model_transformer_encoder_layers_16_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229163712)))]; - tensor linear_254_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_16_second_sub_layer_dense_in_weight_to_fp16, x = input_1183_cast_fp16)[name = tensor("linear_254_cast_fp16")]; - tensor input_1185_cast_fp16 = relu(x = linear_254_cast_fp16)[name = tensor("input_1185_cast_fp16")]; - tensor model_transformer_encoder_layers_16_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229165312)))]; - tensor model_transformer_encoder_layers_16_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229460288)))]; - tensor linear_255_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_16_second_sub_layer_dense_out_weight_to_fp16, x = input_1185_cast_fp16)[name = tensor("linear_255_cast_fp16")]; - tensor input_1189_cast_fp16 = add(x = linear_255_cast_fp16, y = input_1183_cast_fp16)[name = tensor("input_1189_cast_fp16")]; + tensor model_transformer_encoder_layers_16_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234020608)))]; + tensor model_transformer_encoder_layers_16_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234021056)))]; + tensor input_1183_cast_fp16 = layer_norm(axes = input_1183_axes_0, beta = model_transformer_encoder_layers_16_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_16_layer_norm_1_weight_to_fp16, x = input_1181_cast_fp16)[name = tensor("input_1183_cast_fp16")]; + tensor model_transformer_encoder_layers_16_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234021504)))]; + tensor model_transformer_encoder_layers_16_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234316480)))]; + tensor linear_254_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_16_second_sub_layer_dense_in_weight_to_fp16, x = input_1183_cast_fp16)[name = tensor("linear_254_cast_fp16")]; + tensor input_1185_cast_fp16 = relu(x = linear_254_cast_fp16)[name = tensor("input_1185_cast_fp16")]; + tensor model_transformer_encoder_layers_16_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234318080)))]; + tensor model_transformer_encoder_layers_16_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234613056)))]; + tensor linear_255_cast_fp16 = linear(bias = model_transformer_encoder_layers_16_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_16_second_sub_layer_dense_out_weight_to_fp16, x = input_1185_cast_fp16)[name = tensor("linear_255_cast_fp16")]; + tensor input_1189_cast_fp16 = add(x = linear_255_cast_fp16, y = input_1183_cast_fp16)[name = tensor("input_1189_cast_fp16")]; tensor input_1191_axes_0 = const()[name = tensor("input_1191_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_16_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229460736)))]; - tensor model_transformer_encoder_layers_16_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229461184)))]; - tensor input_1191_cast_fp16 = layer_norm(axes = input_1191_axes_0, beta = model_transformer_encoder_layers_16_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_16_layer_norm_2_weight_to_fp16, x = input_1189_cast_fp16)[name = tensor("input_1191_cast_fp16")]; - tensor model_transformer_encoder_layers_17_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229461632)))]; - tensor model_transformer_encoder_layers_17_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229535424)))]; - tensor linear_256_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_query_net_weight_to_fp16, x = input_1191_cast_fp16)[name = tensor("linear_256_cast_fp16")]; - tensor model_transformer_encoder_layers_17_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229535872)))]; - tensor model_transformer_encoder_layers_17_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229609664)))]; - tensor linear_257_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_key_net_weight_to_fp16, x = input_1191_cast_fp16)[name = tensor("linear_257_cast_fp16")]; - tensor model_transformer_encoder_layers_17_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229610112)))]; - tensor model_transformer_encoder_layers_17_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229683904)))]; - tensor linear_258_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_value_net_weight_to_fp16, x = input_1191_cast_fp16)[name = tensor("linear_258_cast_fp16")]; - tensor var_4683 = const()[name = tensor("op_4683"), val = tensor([1, 242, 8, 24])]; - tensor x_583_cast_fp16 = reshape(shape = var_4683, x = linear_256_cast_fp16)[name = tensor("x_583_cast_fp16")]; + tensor model_transformer_encoder_layers_16_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234613504)))]; + tensor model_transformer_encoder_layers_16_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_16_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234613952)))]; + tensor input_1191_cast_fp16 = layer_norm(axes = input_1191_axes_0, beta = model_transformer_encoder_layers_16_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_16_layer_norm_2_weight_to_fp16, x = input_1189_cast_fp16)[name = tensor("input_1191_cast_fp16")]; + tensor model_transformer_encoder_layers_17_first_sub_layer_query_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_query_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234614400)))]; + tensor model_transformer_encoder_layers_17_first_sub_layer_query_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_query_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234688192)))]; + tensor linear_256_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_query_net_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_query_net_weight_to_fp16, x = input_1191_cast_fp16)[name = tensor("linear_256_cast_fp16")]; + tensor model_transformer_encoder_layers_17_first_sub_layer_key_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_key_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234688640)))]; + tensor model_transformer_encoder_layers_17_first_sub_layer_key_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_key_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234762432)))]; + tensor linear_257_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_key_net_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_key_net_weight_to_fp16, x = input_1191_cast_fp16)[name = tensor("linear_257_cast_fp16")]; + tensor model_transformer_encoder_layers_17_first_sub_layer_value_net_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_value_net_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234762880)))]; + tensor model_transformer_encoder_layers_17_first_sub_layer_value_net_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_value_net_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234836672)))]; + tensor linear_258_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_value_net_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_value_net_weight_to_fp16, x = input_1191_cast_fp16)[name = tensor("linear_258_cast_fp16")]; + tensor var_4683 = const()[name = tensor("op_4683"), val = tensor([1, 390, 8, 24])]; + tensor x_583_cast_fp16 = reshape(shape = var_4683, x = linear_256_cast_fp16)[name = tensor("x_583_cast_fp16")]; tensor _inversed_query_y_0_to_fp16 = const()[name = tensor("_inversed_query_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_query_cast_fp16 = mul(x = x_583_cast_fp16, y = _inversed_query_y_0_to_fp16)[name = tensor("_inversed_query_cast_fp16")]; - tensor var_4691 = const()[name = tensor("op_4691"), val = tensor([1, 242, 8, 24])]; - tensor x_587_cast_fp16 = reshape(shape = var_4691, x = linear_257_cast_fp16)[name = tensor("x_587_cast_fp16")]; + tensor _inversed_query_cast_fp16 = mul(x = x_583_cast_fp16, y = _inversed_query_y_0_to_fp16)[name = tensor("_inversed_query_cast_fp16")]; + tensor var_4691 = const()[name = tensor("op_4691"), val = tensor([1, 390, 8, 24])]; + tensor x_587_cast_fp16 = reshape(shape = var_4691, x = linear_257_cast_fp16)[name = tensor("x_587_cast_fp16")]; tensor _inversed_key_y_0_to_fp16 = const()[name = tensor("_inversed_key_y_0_to_fp16"), val = tensor(0x1.cecp-2)]; - tensor _inversed_key_cast_fp16 = mul(x = x_587_cast_fp16, y = _inversed_key_y_0_to_fp16)[name = tensor("_inversed_key_cast_fp16")]; - tensor var_4699 = const()[name = tensor("op_4699"), val = tensor([1, 242, 8, 24])]; - tensor x_cast_fp16 = reshape(shape = var_4699, x = linear_258_cast_fp16)[name = tensor("x_cast_fp16")]; + tensor _inversed_key_cast_fp16 = mul(x = x_587_cast_fp16, y = _inversed_key_y_0_to_fp16)[name = tensor("_inversed_key_cast_fp16")]; + tensor var_4699 = const()[name = tensor("op_4699"), val = tensor([1, 390, 8, 24])]; + tensor x_cast_fp16 = reshape(shape = var_4699, x = linear_258_cast_fp16)[name = tensor("x_cast_fp16")]; tensor var_4701 = const()[name = tensor("op_4701"), val = tensor([0, 2, 1, 3])]; tensor attention_scores_69_transpose_x_1 = const()[name = tensor("attention_scores_69_transpose_x_1"), val = tensor(false)]; tensor attention_scores_69_transpose_y_1 = const()[name = tensor("attention_scores_69_transpose_y_1"), val = tensor(true)]; tensor transpose_119_perm_0 = const()[name = tensor("transpose_119_perm_0"), val = tensor([0, 2, 1, 3])]; tensor transpose_120_perm_0 = const()[name = tensor("transpose_120_perm_0"), val = tensor([0, 2, 1, 3])]; - tensor transpose_120 = transpose(perm = transpose_120_perm_0, x = _inversed_key_cast_fp16)[name = tensor("transpose_122")]; - tensor transpose_119 = transpose(perm = transpose_119_perm_0, x = _inversed_query_cast_fp16)[name = tensor("transpose_123")]; - tensor attention_scores_69_cast_fp16 = matmul(transpose_x = attention_scores_69_transpose_x_1, transpose_y = attention_scores_69_transpose_y_1, x = transpose_119, y = transpose_120)[name = tensor("attention_scores_69_cast_fp16")]; - tensor attention_scores_cast_fp16 = add(x = attention_scores_69_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_cast_fp16")]; - tensor input_1193_cast_fp16 = softmax(axis = var_3111, x = attention_scores_cast_fp16)[name = tensor("input_1193_cast_fp16")]; + tensor transpose_120 = transpose(perm = transpose_120_perm_0, x = _inversed_key_cast_fp16)[name = tensor("transpose_122")]; + tensor transpose_119 = transpose(perm = transpose_119_perm_0, x = _inversed_query_cast_fp16)[name = tensor("transpose_123")]; + tensor attention_scores_69_cast_fp16 = matmul(transpose_x = attention_scores_69_transpose_x_1, transpose_y = attention_scores_69_transpose_y_1, x = transpose_119, y = transpose_120)[name = tensor("attention_scores_69_cast_fp16")]; + tensor attention_scores_cast_fp16 = add(x = attention_scores_69_cast_fp16, y = attention_mask_3_cast_fp16)[name = tensor("attention_scores_cast_fp16")]; + tensor input_1193_cast_fp16 = softmax(axis = var_3111, x = attention_scores_cast_fp16)[name = tensor("input_1193_cast_fp16")]; tensor context_69_transpose_x_0 = const()[name = tensor("context_69_transpose_x_0"), val = tensor(false)]; tensor context_69_transpose_y_0 = const()[name = tensor("context_69_transpose_y_0"), val = tensor(false)]; - tensor value_cast_fp16 = transpose(perm = var_4701, x = x_cast_fp16)[name = tensor("transpose_124")]; - tensor context_69_cast_fp16 = matmul(transpose_x = context_69_transpose_x_0, transpose_y = context_69_transpose_y_0, x = input_1193_cast_fp16, y = value_cast_fp16)[name = tensor("context_69_cast_fp16")]; + tensor value_cast_fp16 = transpose(perm = var_4701, x = x_cast_fp16)[name = tensor("transpose_124")]; + tensor context_69_cast_fp16 = matmul(transpose_x = context_69_transpose_x_0, transpose_y = context_69_transpose_y_0, x = input_1193_cast_fp16, y = value_cast_fp16)[name = tensor("context_69_cast_fp16")]; tensor var_4715 = const()[name = tensor("op_4715"), val = tensor([0, 2, 1, 3])]; - tensor var_4720 = const()[name = tensor("op_4720"), val = tensor([1, 242, 192])]; - tensor var_4716_cast_fp16 = transpose(perm = var_4715, x = context_69_cast_fp16)[name = tensor("transpose_121")]; - tensor input_1195_cast_fp16 = reshape(shape = var_4720, x = var_4716_cast_fp16)[name = tensor("input_1195_cast_fp16")]; - tensor model_transformer_encoder_layers_17_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229684352)))]; - tensor model_transformer_encoder_layers_17_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229758144)))]; - tensor linear_259_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_out_projection_weight_to_fp16, x = input_1195_cast_fp16)[name = tensor("linear_259_cast_fp16")]; - tensor input_1199_cast_fp16 = add(x = linear_259_cast_fp16, y = input_1191_cast_fp16)[name = tensor("input_1199_cast_fp16")]; + tensor var_4720 = const()[name = tensor("op_4720"), val = tensor([1, 390, 192])]; + tensor var_4716_cast_fp16 = transpose(perm = var_4715, x = context_69_cast_fp16)[name = tensor("transpose_121")]; + tensor input_1195_cast_fp16 = reshape(shape = var_4720, x = var_4716_cast_fp16)[name = tensor("input_1195_cast_fp16")]; + tensor model_transformer_encoder_layers_17_first_sub_layer_out_projection_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_out_projection_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234837120)))]; + tensor model_transformer_encoder_layers_17_first_sub_layer_out_projection_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_first_sub_layer_out_projection_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234910912)))]; + tensor linear_259_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_first_sub_layer_out_projection_bias_to_fp16, weight = model_transformer_encoder_layers_17_first_sub_layer_out_projection_weight_to_fp16, x = input_1195_cast_fp16)[name = tensor("linear_259_cast_fp16")]; + tensor input_1199_cast_fp16 = add(x = linear_259_cast_fp16, y = input_1191_cast_fp16)[name = tensor("input_1199_cast_fp16")]; tensor input_1201_axes_0 = const()[name = tensor("input_1201_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_17_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229758592)))]; - tensor model_transformer_encoder_layers_17_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229759040)))]; - tensor input_1201_cast_fp16 = layer_norm(axes = input_1201_axes_0, beta = model_transformer_encoder_layers_17_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_17_layer_norm_1_weight_to_fp16, x = input_1199_cast_fp16)[name = tensor("input_1201_cast_fp16")]; - tensor model_transformer_encoder_layers_17_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(229759488)))]; - tensor model_transformer_encoder_layers_17_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230054464)))]; - tensor linear_260_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_17_second_sub_layer_dense_in_weight_to_fp16, x = input_1201_cast_fp16)[name = tensor("linear_260_cast_fp16")]; - tensor input_1203_cast_fp16 = relu(x = linear_260_cast_fp16)[name = tensor("input_1203_cast_fp16")]; - tensor model_transformer_encoder_layers_17_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230056064)))]; - tensor model_transformer_encoder_layers_17_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230351040)))]; - tensor linear_261_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_17_second_sub_layer_dense_out_weight_to_fp16, x = input_1203_cast_fp16)[name = tensor("linear_261_cast_fp16")]; - tensor input_1207_cast_fp16 = add(x = linear_261_cast_fp16, y = input_1201_cast_fp16)[name = tensor("input_1207_cast_fp16")]; + tensor model_transformer_encoder_layers_17_layer_norm_1_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_1_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234911360)))]; + tensor model_transformer_encoder_layers_17_layer_norm_1_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_1_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234911808)))]; + tensor input_1201_cast_fp16 = layer_norm(axes = input_1201_axes_0, beta = model_transformer_encoder_layers_17_layer_norm_1_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_17_layer_norm_1_weight_to_fp16, x = input_1199_cast_fp16)[name = tensor("input_1201_cast_fp16")]; + tensor model_transformer_encoder_layers_17_second_sub_layer_dense_in_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_in_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(234912256)))]; + tensor model_transformer_encoder_layers_17_second_sub_layer_dense_in_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_in_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235207232)))]; + tensor linear_260_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_second_sub_layer_dense_in_bias_to_fp16, weight = model_transformer_encoder_layers_17_second_sub_layer_dense_in_weight_to_fp16, x = input_1201_cast_fp16)[name = tensor("linear_260_cast_fp16")]; + tensor input_1203_cast_fp16 = relu(x = linear_260_cast_fp16)[name = tensor("input_1203_cast_fp16")]; + tensor model_transformer_encoder_layers_17_second_sub_layer_dense_out_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_out_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235208832)))]; + tensor model_transformer_encoder_layers_17_second_sub_layer_dense_out_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_second_sub_layer_dense_out_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235503808)))]; + tensor linear_261_cast_fp16 = linear(bias = model_transformer_encoder_layers_17_second_sub_layer_dense_out_bias_to_fp16, weight = model_transformer_encoder_layers_17_second_sub_layer_dense_out_weight_to_fp16, x = input_1203_cast_fp16)[name = tensor("linear_261_cast_fp16")]; + tensor input_1207_cast_fp16 = add(x = linear_261_cast_fp16, y = input_1201_cast_fp16)[name = tensor("input_1207_cast_fp16")]; tensor input_1209_axes_0 = const()[name = tensor("input_1209_axes_0"), val = tensor([-1])]; - tensor model_transformer_encoder_layers_17_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230351488)))]; - tensor model_transformer_encoder_layers_17_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230351936)))]; - tensor input_1209_cast_fp16 = layer_norm(axes = input_1209_axes_0, beta = model_transformer_encoder_layers_17_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_17_layer_norm_2_weight_to_fp16, x = input_1207_cast_fp16)[name = tensor("input_1209_cast_fp16")]; - tensor input_1211_cast_fp16 = relu(x = input_1209_cast_fp16)[name = tensor("input_1211_cast_fp16")]; - tensor model_sortformer_modules_first_hidden_to_hidden_weight_to_fp16 = const()[name = tensor("model_sortformer_modules_first_hidden_to_hidden_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230352384)))]; - tensor model_sortformer_modules_first_hidden_to_hidden_bias_to_fp16 = const()[name = tensor("model_sortformer_modules_first_hidden_to_hidden_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230426176)))]; - tensor linear_262_cast_fp16 = linear(bias = model_sortformer_modules_first_hidden_to_hidden_bias_to_fp16, weight = model_sortformer_modules_first_hidden_to_hidden_weight_to_fp16, x = input_1211_cast_fp16)[name = tensor("linear_262_cast_fp16")]; - tensor input_1217_cast_fp16 = relu(x = linear_262_cast_fp16)[name = tensor("input_1217_cast_fp16")]; - tensor model_sortformer_modules_single_hidden_to_spks_weight_to_fp16 = const()[name = tensor("model_sortformer_modules_single_hidden_to_spks_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(230426624)))]; + tensor model_transformer_encoder_layers_17_layer_norm_2_weight_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_2_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235504256)))]; + tensor model_transformer_encoder_layers_17_layer_norm_2_bias_to_fp16 = const()[name = tensor("model_transformer_encoder_layers_17_layer_norm_2_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235504704)))]; + tensor input_1209_cast_fp16 = layer_norm(axes = input_1209_axes_0, beta = model_transformer_encoder_layers_17_layer_norm_2_bias_to_fp16, epsilon = var_3118_to_fp16, gamma = model_transformer_encoder_layers_17_layer_norm_2_weight_to_fp16, x = input_1207_cast_fp16)[name = tensor("input_1209_cast_fp16")]; + tensor input_1211_cast_fp16 = relu(x = input_1209_cast_fp16)[name = tensor("input_1211_cast_fp16")]; + tensor model_sortformer_modules_first_hidden_to_hidden_weight_to_fp16 = const()[name = tensor("model_sortformer_modules_first_hidden_to_hidden_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235505152)))]; + tensor model_sortformer_modules_first_hidden_to_hidden_bias_to_fp16 = const()[name = tensor("model_sortformer_modules_first_hidden_to_hidden_bias_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235578944)))]; + tensor linear_262_cast_fp16 = linear(bias = model_sortformer_modules_first_hidden_to_hidden_bias_to_fp16, weight = model_sortformer_modules_first_hidden_to_hidden_weight_to_fp16, x = input_1211_cast_fp16)[name = tensor("linear_262_cast_fp16")]; + tensor input_1217_cast_fp16 = relu(x = linear_262_cast_fp16)[name = tensor("input_1217_cast_fp16")]; + tensor model_sortformer_modules_single_hidden_to_spks_weight_to_fp16 = const()[name = tensor("model_sortformer_modules_single_hidden_to_spks_weight_to_fp16"), val = tensor(BLOBFILE(path = tensor("@model_path/weights/1-weight.bin"), offset = tensor(235579392)))]; tensor model_sortformer_modules_single_hidden_to_spks_bias_to_fp16 = const()[name = tensor("model_sortformer_modules_single_hidden_to_spks_bias_to_fp16"), val = tensor([-0x1.fc4p-4, -0x1.638p-4, -0x1.70cp-3, -0x1.494p-2])]; - tensor linear_263_cast_fp16 = linear(bias = model_sortformer_modules_single_hidden_to_spks_bias_to_fp16, weight = model_sortformer_modules_single_hidden_to_spks_weight_to_fp16, x = input_1217_cast_fp16)[name = tensor("linear_263_cast_fp16")]; - tensor _preds_cast_fp16 = sigmoid(x = linear_263_cast_fp16)[name = tensor("_preds_cast_fp16")]; + tensor linear_263_cast_fp16 = linear(bias = model_sortformer_modules_single_hidden_to_spks_bias_to_fp16, weight = model_sortformer_modules_single_hidden_to_spks_weight_to_fp16, x = input_1217_cast_fp16)[name = tensor("linear_263_cast_fp16")]; + tensor _preds_cast_fp16 = sigmoid(x = linear_263_cast_fp16)[name = tensor("_preds_cast_fp16")]; tensor var_4765_axes_0 = const()[name = tensor("op_4765_axes_0"), val = tensor([-1])]; - tensor var_4765 = expand_dims(axes = var_4765_axes_0, x = input_mask_1)[name = tensor("op_4765")]; + tensor var_4765 = expand_dims(axes = var_4765_axes_0, x = input_mask_1)[name = tensor("op_4765")]; tensor var_4765_promoted_to_fp16_dtype_0 = const()[name = tensor("op_4765_promoted_to_fp16_dtype_0"), val = tensor("fp16")]; - tensor var_4765_to_fp16 = cast(dtype = var_4765_promoted_to_fp16_dtype_0, x = var_4765)[name = tensor("cast_302")]; - tensor var_4766_cast_fp16 = mul(x = _preds_cast_fp16, y = var_4765_to_fp16)[name = tensor("op_4766_cast_fp16")]; + tensor var_4765_to_fp16 = cast(dtype = var_4765_promoted_to_fp16_dtype_0, x = var_4765)[name = tensor("cast_302")]; + tensor var_4766_cast_fp16 = mul(x = _preds_cast_fp16, y = var_4765_to_fp16)[name = tensor("op_4766_cast_fp16")]; tensor var_4766_cast_fp16_to_fp32_dtype_0 = const()[name = tensor("op_4766_cast_fp16_to_fp32_dtype_0"), val = tensor("fp32")]; - tensor speaker_preds = cast(dtype = var_4766_cast_fp16_to_fp32_dtype_0, x = var_4766_cast_fp16)[name = tensor("cast_301")]; + tensor speaker_preds = cast(dtype = var_4766_cast_fp16_to_fp32_dtype_0, x = var_4766_cast_fp16)[name = tensor("cast_301")]; + tensor nest_encoder_embs = cast(dtype = linear_153_cast_fp16_to_fp32_dtype_0, x = linear_153_cast_fp16)[name = tensor("cast_304")]; tensor chunk_pre_encoder_embs_tmp = identity(x = chunk_pre_encoder_embs)[name = tensor("chunk_pre_encoder_embs_tmp")]; tensor chunk_pre_encoder_lengths_tmp = identity(x = chunk_pre_encoder_lengths)[name = tensor("chunk_pre_encoder_lengths_tmp")]; - } -> (speaker_preds, chunk_pre_encoder_embs, chunk_pre_encoder_lengths); + } -> (speaker_preds, chunk_pre_encoder_embs, chunk_pre_encoder_lengths, nest_encoder_embs, nest_encoder_lengths); } \ No newline at end of file