x86
stringlengths
122
9.39M
arm
stringlengths
122
9.33M
file
stringlengths
19
200
source
stringclasses
2 values
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__const .globl _http_http ## @http_http _http_http: .asciz "http://" .globl _http_200 ## @http_200 _http_200: .asciz "200 " .globl _http_301 ## @http_301 _http_301: .asciz "301 " .globl _http_302 ## @http_302 _http_302: .asciz "302 " .globl _http_get ## @http_get _http_get: .asciz "GET " .globl _http_10 ## @http_10 _http_10: .asciz "HTTP/1.0" .globl _http_11 ## @http_11 _http_11: .asciz "HTTP/1.1" .globl _http_content_type ## @http_content_type _http_content_type: .asciz "content-type: " .globl _http_texthtml ## @http_texthtml _http_texthtml: .asciz "text/html" .globl _http_location ## @http_location _http_location: .asciz "location: " .globl _http_host ## @http_host _http_host: .asciz "host: " .globl _http_crnl ## @http_crnl _http_crnl: .asciz "\r\n" .globl _http_index_html ## @http_index_html _http_index_html: .asciz "/index.html" .globl _http_404_html ## @http_404_html _http_404_html: .asciz "/404.html" .globl _http_referer ## @http_referer _http_referer: .asciz "Referer:" .globl _http_header_200 ## @http_header_200 .p2align 4 _http_header_200: .asciz "HTTP/1.0 200 OK\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n" .globl _http_header_404 ## @http_header_404 .p2align 4 _http_header_404: .asciz "HTTP/1.0 404 Not found\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n" .globl _http_content_type_plain ## @http_content_type_plain .p2align 4 _http_content_type_plain: .asciz "Content-type: text/plain\r\n\r\n" .globl _http_content_type_html ## @http_content_type_html .p2align 4 _http_content_type_html: .asciz "Content-type: text/html\r\n\r\n" .globl _http_content_type_css ## @http_content_type_css .p2align 4 _http_content_type_css: .asciz "Content-type: text/css\r\n\r\n" .globl _http_content_type_text ## @http_content_type_text .p2align 4 _http_content_type_text: .asciz "Content-type: text/text\r\n\r\n" .globl _http_content_type_png ## @http_content_type_png .p2align 4 _http_content_type_png: .asciz "Content-type: image/png\r\n\r\n" .globl _http_content_type_gif ## @http_content_type_gif .p2align 4 _http_content_type_gif: .asciz "Content-type: image/gif\r\n\r\n" .globl _http_content_type_jpg ## @http_content_type_jpg .p2align 4 _http_content_type_jpg: .asciz "Content-type: image/jpeg\r\n\r\n" .globl _http_content_type_binary ## @http_content_type_binary .p2align 4 _http_content_type_binary: .asciz "Content-type: application/octet-stream\r\n\r\n" .globl _http_html ## @http_html _http_html: .asciz ".html" .globl _http_shtml ## @http_shtml _http_shtml: .asciz ".shtml" .globl _http_htm ## @http_htm _http_htm: .asciz ".htm" .globl _http_css ## @http_css _http_css: .asciz ".css" .globl _http_png ## @http_png _http_png: .asciz ".png" .globl _http_gif ## @http_gif _http_gif: .asciz ".gif" .globl _http_jpg ## @http_jpg _http_jpg: .asciz ".jpg" .globl _http_text ## @http_text _http_text: .asciz ".txt" .globl _http_txt ## @http_txt _http_txt: .asciz ".txt" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__const .globl _http_http ; @http_http _http_http: .asciz "http://" .globl _http_200 ; @http_200 _http_200: .asciz "200 " .globl _http_301 ; @http_301 _http_301: .asciz "301 " .globl _http_302 ; @http_302 _http_302: .asciz "302 " .globl _http_get ; @http_get _http_get: .asciz "GET " .globl _http_10 ; @http_10 _http_10: .asciz "HTTP/1.0" .globl _http_11 ; @http_11 _http_11: .asciz "HTTP/1.1" .globl _http_content_type ; @http_content_type _http_content_type: .asciz "content-type: " .globl _http_texthtml ; @http_texthtml _http_texthtml: .asciz "text/html" .globl _http_location ; @http_location _http_location: .asciz "location: " .globl _http_host ; @http_host _http_host: .asciz "host: " .globl _http_crnl ; @http_crnl _http_crnl: .asciz "\r\n" .globl _http_index_html ; @http_index_html _http_index_html: .asciz "/index.html" .globl _http_404_html ; @http_404_html _http_404_html: .asciz "/404.html" .globl _http_referer ; @http_referer _http_referer: .asciz "Referer:" .globl _http_header_200 ; @http_header_200 _http_header_200: .asciz "HTTP/1.0 200 OK\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n" .globl _http_header_404 ; @http_header_404 _http_header_404: .asciz "HTTP/1.0 404 Not found\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n" .globl _http_content_type_plain ; @http_content_type_plain _http_content_type_plain: .asciz "Content-type: text/plain\r\n\r\n" .globl _http_content_type_html ; @http_content_type_html _http_content_type_html: .asciz "Content-type: text/html\r\n\r\n" .globl _http_content_type_css ; @http_content_type_css _http_content_type_css: .asciz "Content-type: text/css\r\n\r\n" .globl _http_content_type_text ; @http_content_type_text _http_content_type_text: .asciz "Content-type: text/text\r\n\r\n" .globl _http_content_type_png ; @http_content_type_png _http_content_type_png: .asciz "Content-type: image/png\r\n\r\n" .globl _http_content_type_gif ; @http_content_type_gif _http_content_type_gif: .asciz "Content-type: image/gif\r\n\r\n" .globl _http_content_type_jpg ; @http_content_type_jpg _http_content_type_jpg: .asciz "Content-type: image/jpeg\r\n\r\n" .globl _http_content_type_binary ; @http_content_type_binary _http_content_type_binary: .asciz "Content-type: application/octet-stream\r\n\r\n" .globl _http_html ; @http_html _http_html: .asciz ".html" .globl _http_shtml ; @http_shtml _http_shtml: .asciz ".shtml" .globl _http_htm ; @http_htm _http_htm: .asciz ".htm" .globl _http_css ; @http_css _http_css: .asciz ".css" .globl _http_png ; @http_png _http_png: .asciz ".png" .globl _http_gif ; @http_gif _http_gif: .asciz ".gif" .globl _http_jpg ; @http_jpg _http_jpg: .asciz ".jpg" .globl _http_text ; @http_text _http_text: .asciz ".txt" .globl _http_txt ; @http_txt _http_txt: .asciz ".txt" .subsections_via_symbols
the_stack_data/1260662.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function set_misc_reg _set_misc_reg: ## @set_misc_reg .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdi, %rbx movl (%rdi), %r14d callq _PRIV movq %rax, %r15 movl (%rax), %eax movq _HAS_MISC_REG@GOTPCREL(%rip), %rcx testl %eax, (%rcx) je LBB0_2 ## %bb.1: movq _PCNET_MISC@GOTPCREL(%rip), %r12 movq (%r12), %rdi addq %r14, %rdi callq _inb_p ## kill: def $eax killed $eax def $rax andl $-4, %eax xorl %ecx, %ecx cmpl $2, 4(%rbx) sete %cl leal (%rax,%rcx), %edx movl (%r15), %esi movq _USE_BIG_BUF@GOTPCREL(%rip), %rdi movl (%rdi), %edi andl %esi, %edi leal 2(%rax,%rcx), %eax cmovel %edx, %eax movq _HAS_IBM_MISC@GOTPCREL(%rip), %rcx andl (%rcx), %esi movl %eax, %edi orl $8, %edi testl %esi, %esi cmovel %eax, %edi movq (%r12), %rsi addq %r14, %rsi callq _outb_p movl (%r15), %eax LBB0_2: movq _IS_DL10022@GOTPCREL(%rip), %rcx testl %eax, (%rcx) je LBB0_6 ## %bb.3: movq _HAS_MII@GOTPCREL(%rip), %rcx testl %eax, (%rcx) je LBB0_5 ## %bb.4: movq _DLINK_GPIO@GOTPCREL(%rip), %rbx movq (%rbx), %rdi addq %r14, %rdi movl 4(%r15), %esi movl $4, %edx movl $481, %ecx ## imm = 0x1E1 callq _mdio_write movq (%rbx), %rdi addq %r14, %rdi movl 4(%r15), %esi xorl %edx, %edx xorl %ecx, %ecx callq _mdio_write movq (%rbx), %rdi addq %r14, %rdi movl 4(%r15), %esi xorl %edx, %edx movl $4608, %ecx ## imm = 0x1200 callq _mdio_write movq _jiffies@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, 8(%r15) jmp LBB0_7 LBB0_6: movq _IS_DL10019@GOTPCREL(%rip), %rcx testl %eax, (%rcx) je LBB0_7 ## %bb.8: movq _DLINK_GPIO@GOTPCREL(%rip), %rbx movq (%rbx), %rdi addq %r14, %rdi movl 4(%r15), %esi movl $4, %edx movl $481, %ecx ## imm = 0x1E1 callq _mdio_write movq (%rbx), %rdi addq %r14, %rdi movl 4(%r15), %esi xorl %edx, %edx xorl %ecx, %ecx callq _mdio_write addq (%rbx), %r14 movl 4(%r15), %esi movq %r14, %rdi xorl %edx, %edx movl $4608, %ecx ## imm = 0x1200 popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp jmp _mdio_write ## TAILCALL LBB0_7: popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq LBB0_5: movq _full_duplex@GOTPCREL(%rip), %rax xorl %edi, %edi cmpq $0, (%rax) setne %dil shll $2, %edi movq _DLINK_DIAG@GOTPCREL(%rip), %rax addq (%rax), %r14 movq %r14, %rsi popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp jmp _outb ## TAILCALL .cfi_endproc ## -- End function .comm _HAS_MISC_REG,4,2 ## @HAS_MISC_REG .comm _PCNET_MISC,8,3 ## @PCNET_MISC .comm _USE_BIG_BUF,4,2 ## @USE_BIG_BUF .comm _HAS_IBM_MISC,4,2 ## @HAS_IBM_MISC .comm _IS_DL10022,4,2 ## @IS_DL10022 .comm _HAS_MII,4,2 ## @HAS_MII .comm _DLINK_GPIO,8,3 ## @DLINK_GPIO .comm _jiffies,4,2 ## @jiffies .comm _full_duplex,8,3 ## @full_duplex .comm _DLINK_DIAG,8,3 ## @DLINK_DIAG .comm _IS_DL10019,4,2 ## @IS_DL10019 .no_dead_strip _set_misc_reg .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function set_misc_reg _set_misc_reg: ; @set_misc_reg .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x20, x0 ldr w21, [x0] bl _PRIV mov x19, x0 ldr w8, [x0] Lloh0: adrp x9, _HAS_MISC_REG@GOTPAGE Lloh1: ldr x9, [x9, _HAS_MISC_REG@GOTPAGEOFF] Lloh2: ldr w9, [x9] tst w9, w8 b.eq LBB0_2 ; %bb.1: Lloh3: adrp x22, _PCNET_MISC@GOTPAGE Lloh4: ldr x22, [x22, _PCNET_MISC@GOTPAGEOFF] ldr x8, [x22] add x0, x8, x21 bl _inb_p and w8, w0, #0xfffffffc ldr w9, [x20, #4] cmp w9, #2 cset w9, eq orr w8, w8, w9 ldr w9, [x19] Lloh5: adrp x10, _USE_BIG_BUF@GOTPAGE Lloh6: ldr x10, [x10, _USE_BIG_BUF@GOTPAGEOFF] Lloh7: ldr w10, [x10] orr w11, w8, #0x2 tst w10, w9 csel w8, w8, w11, eq Lloh8: adrp x10, _HAS_IBM_MISC@GOTPAGE Lloh9: ldr x10, [x10, _HAS_IBM_MISC@GOTPAGEOFF] Lloh10: ldr w10, [x10] orr w11, w8, #0x8 tst w10, w9 csel w0, w8, w11, eq ldr x8, [x22] add x1, x8, x21 bl _outb_p ldr w8, [x19] LBB0_2: Lloh11: adrp x9, _IS_DL10022@GOTPAGE Lloh12: ldr x9, [x9, _IS_DL10022@GOTPAGEOFF] Lloh13: ldr w9, [x9] tst w9, w8 b.eq LBB0_5 ; %bb.3: Lloh14: adrp x9, _HAS_MII@GOTPAGE Lloh15: ldr x9, [x9, _HAS_MII@GOTPAGEOFF] Lloh16: ldr w9, [x9] tst w9, w8 b.eq LBB0_8 ; %bb.4: Lloh17: adrp x20, _DLINK_GPIO@GOTPAGE Lloh18: ldr x20, [x20, _DLINK_GPIO@GOTPAGEOFF] ldr x8, [x20] add x0, x8, x21 ldr w1, [x19, #4] mov w2, #4 mov w3, #481 bl _mdio_write ldr x8, [x20] add x0, x8, x21 ldr w1, [x19, #4] mov w2, #0 mov w3, #0 bl _mdio_write ldr x8, [x20] add x0, x8, x21 ldr w1, [x19, #4] mov w2, #0 mov w3, #4608 bl _mdio_write Lloh19: adrp x8, _jiffies@GOTPAGE Lloh20: ldr x8, [x8, _jiffies@GOTPAGEOFF] Lloh21: ldr w8, [x8] str w8, [x19, #8] b LBB0_7 LBB0_5: Lloh22: adrp x9, _IS_DL10019@GOTPAGE Lloh23: ldr x9, [x9, _IS_DL10019@GOTPAGEOFF] Lloh24: ldr w9, [x9] tst w9, w8 b.eq LBB0_7 ; %bb.6: Lloh25: adrp x20, _DLINK_GPIO@GOTPAGE Lloh26: ldr x20, [x20, _DLINK_GPIO@GOTPAGEOFF] ldr x8, [x20] add x0, x8, x21 ldr w1, [x19, #4] mov w2, #4 mov w3, #481 bl _mdio_write ldr x8, [x20] add x0, x8, x21 ldr w1, [x19, #4] mov w2, #0 mov w3, #0 bl _mdio_write ldr x8, [x20] add x0, x8, x21 ldr w1, [x19, #4] mov w2, #0 mov w3, #4608 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b _mdio_write LBB0_7: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret LBB0_8: Lloh27: adrp x8, _full_duplex@GOTPAGE Lloh28: ldr x8, [x8, _full_duplex@GOTPAGEOFF] Lloh29: ldr x8, [x8] cmp x8, #0 cset w8, ne lsl w0, w8, #2 Lloh30: adrp x8, _DLINK_DIAG@GOTPAGE Lloh31: ldr x8, [x8, _DLINK_DIAG@GOTPAGEOFF] Lloh32: ldr x8, [x8] add x1, x8, x21 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b _outb .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10 .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .loh AdrpLdrGot Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh14, Lloh15, Lloh16 .loh AdrpLdrGotLdr Lloh19, Lloh20, Lloh21 .loh AdrpLdrGot Lloh17, Lloh18 .loh AdrpLdrGotLdr Lloh22, Lloh23, Lloh24 .loh AdrpLdrGot Lloh25, Lloh26 .loh AdrpLdrGotLdr Lloh30, Lloh31, Lloh32 .loh AdrpLdrGotLdr Lloh27, Lloh28, Lloh29 .cfi_endproc ; -- End function .comm _HAS_MISC_REG,4,2 ; @HAS_MISC_REG .comm _PCNET_MISC,8,3 ; @PCNET_MISC .comm _USE_BIG_BUF,4,2 ; @USE_BIG_BUF .comm _HAS_IBM_MISC,4,2 ; @HAS_IBM_MISC .comm _IS_DL10022,4,2 ; @IS_DL10022 .comm _HAS_MII,4,2 ; @HAS_MII .comm _DLINK_GPIO,8,3 ; @DLINK_GPIO .comm _jiffies,4,2 ; @jiffies .comm _full_duplex,8,3 ; @full_duplex .comm _DLINK_DIAG,8,3 ; @DLINK_DIAG .comm _IS_DL10019,4,2 ; @IS_DL10019 .no_dead_strip _set_misc_reg .subsections_via_symbols
AnghaBench/linux/drivers/net/ethernet/8390/extr_pcnet_cs.c_set_misc_reg.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function genericbl_send_intensity _genericbl_send_intensity: ## @genericbl_send_intensity .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq 8(%rdi), %rsi movq _FB_BLANK_UNBLANK@GOTPCREL(%rip), %r8 movq _BL_CORE_FBBLANK@GOTPCREL(%rip), %rax movq _BL_CORE_SUSPENDED@GOTPCREL(%rip), %rcx movl (%rcx), %ecx orl (%rax), %ecx xorl %ebx, %ebx movl 16(%rdi), %eax movl $0, %edx cmpq (%r8), %rsi jne LBB0_2 ## %bb.1: movl (%rdi), %edx LBB0_2: testl %eax, %ecx cmovel %edx, %ebx movq _GENERICBL_BATTLOW@GOTPCREL(%rip), %rdx movq _bl_machinfo@GOTPCREL(%rip), %r14 movq (%r14), %rcx testl %eax, (%rdx) je LBB0_4 ## %bb.3: andl (%rcx), %ebx LBB0_4: movl %ebx, %edi callq *16(%rcx) movq _genericbl_intensity@GOTPCREL(%rip), %rax movl %ebx, (%rax) movq (%r14), %rax movq 8(%rax), %rcx testq %rcx, %rcx je LBB0_6 ## %bb.5: xorl %eax, %eax callq *%rcx LBB0_6: xorl %eax, %eax popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .comm _FB_BLANK_UNBLANK,8,3 ## @FB_BLANK_UNBLANK .comm _BL_CORE_FBBLANK,4,2 ## @BL_CORE_FBBLANK .comm _BL_CORE_SUSPENDED,4,2 ## @BL_CORE_SUSPENDED .comm _GENERICBL_BATTLOW,4,2 ## @GENERICBL_BATTLOW .comm _bl_machinfo,8,3 ## @bl_machinfo .comm _genericbl_intensity,4,2 ## @genericbl_intensity .no_dead_strip _genericbl_send_intensity .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function genericbl_send_intensity _genericbl_send_intensity: ; @genericbl_send_intensity .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 ldr w8, [x0] ldr x9, [x0, #8] Lloh0: adrp x10, _FB_BLANK_UNBLANK@GOTPAGE Lloh1: ldr x10, [x10, _FB_BLANK_UNBLANK@GOTPAGEOFF] Lloh2: ldr x10, [x10] cmp x9, x10 ldr w9, [x0, #16] Lloh3: adrp x10, _BL_CORE_FBBLANK@GOTPAGE Lloh4: ldr x10, [x10, _BL_CORE_FBBLANK@GOTPAGEOFF] Lloh5: ldr w10, [x10] Lloh6: adrp x11, _BL_CORE_SUSPENDED@GOTPAGE Lloh7: ldr x11, [x11, _BL_CORE_SUSPENDED@GOTPAGEOFF] Lloh8: ldr w11, [x11] orr w10, w11, w10 and w10, w10, w9 ccmp w10, #0, #0, eq Lloh9: adrp x10, _GENERICBL_BATTLOW@GOTPAGE Lloh10: ldr x10, [x10, _GENERICBL_BATTLOW@GOTPAGEOFF] csel w19, w8, wzr, eq Lloh11: ldr w10, [x10] Lloh12: adrp x20, _bl_machinfo@GOTPAGE Lloh13: ldr x20, [x20, _bl_machinfo@GOTPAGEOFF] ldr x8, [x20] tst w10, w9 b.eq LBB0_2 ; %bb.1: ldr w9, [x8] and w19, w9, w19 LBB0_2: ldr x8, [x8, #16] mov x0, x19 blr x8 Lloh14: adrp x8, _genericbl_intensity@GOTPAGE Lloh15: ldr x8, [x8, _genericbl_intensity@GOTPAGEOFF] Lloh16: str w19, [x8] ldr x8, [x20] ldr x8, [x8, #8] cbz x8, LBB0_4 ; %bb.3: blr x8 LBB0_4: mov w0, #0 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpLdrGot Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotStr Lloh14, Lloh15, Lloh16 .cfi_endproc ; -- End function .comm _FB_BLANK_UNBLANK,8,3 ; @FB_BLANK_UNBLANK .comm _BL_CORE_FBBLANK,4,2 ; @BL_CORE_FBBLANK .comm _BL_CORE_SUSPENDED,4,2 ; @BL_CORE_SUSPENDED .comm _GENERICBL_BATTLOW,4,2 ; @GENERICBL_BATTLOW .comm _bl_machinfo,8,3 ; @bl_machinfo .comm _genericbl_intensity,4,2 ; @genericbl_intensity .no_dead_strip _genericbl_send_intensity .subsections_via_symbols
AnghaBench/fastsocket/kernel/drivers/video/backlight/extr_generic_bl.c_genericbl_send_intensity.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ## -- Begin function main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $24, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 leaq L_.str(%rip), %rdi xorl %r13d, %r13d leaq -44(%rbp), %rsi xorl %eax, %eax callq _scanf cmpl $0, -44(%rbp) jle LBB0_3 ## %bb.1: leaq L_.str(%rip), %r14 leaq -52(%rbp), %r15 movq _arr@GOTPCREL(%rip), %r12 xorl %ebx, %ebx .p2align 4, 0x90 LBB0_2: ## =>This Inner Loop Header: Depth=1 movq %r14, %rdi movq %r15, %rsi xorl %eax, %eax callq _scanf movslq -52(%rbp), %rax incl (%r12,%rax,4) incl %ebx cmpl -44(%rbp), %ebx jl LBB0_2 LBB0_3: leaq L_.str(%rip), %rdi leaq -48(%rbp), %rsi xorl %eax, %eax callq _scanf movl $100000, %eax ## imm = 0x186A0 movl -48(%rbp), %ecx movq _arr@GOTPCREL(%rip), %rdi .p2align 4, 0x90 LBB0_4: ## =>This Inner Loop Header: Depth=1 movl %eax, %edx movl (%rdi,%rdx,4), %edx cmpl $1, %edx sbbl $-1, %r13d cmpl %ecx, %r13d je LBB0_5 ## %bb.8: ## in Loop: Header=BB0_4 Depth=1 testl %eax, %eax je LBB0_7 ## %bb.9: ## in Loop: Header=BB0_4 Depth=1 leal -1(%rax), %esi movl (%rdi,%rsi,4), %edx cmpl $1, %edx sbbl $-1, %r13d cmpl %ecx, %r13d je LBB0_6 ## %bb.10: ## in Loop: Header=BB0_4 Depth=1 addl $-2, %eax jmp LBB0_4 LBB0_5: movl %eax, %esi LBB0_6: leaq L_.str.1(%rip), %rdi ## kill: def $esi killed $esi killed $rsi xorl %eax, %eax callq _printf LBB0_7: xorl %eax, %eax addq $24, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "%d" .comm _arr,400040,4 ## @arr L_.str.1: ## @.str.1 .asciz "%d %d" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: sub sp, sp, #80 .cfi_def_cfa_offset 80 stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 add x8, sp, #28 str x8, [sp] Lloh0: adrp x0, l_.str@PAGE Lloh1: add x0, x0, l_.str@PAGEOFF bl _scanf ldr w8, [sp, #28] Lloh2: adrp x20, _arr@GOTPAGE Lloh3: ldr x20, [x20, _arr@GOTPAGEOFF] cmp w8, #1 b.lt LBB0_3 ; %bb.1: mov w21, #0 add x22, sp, #24 Lloh4: adrp x19, l_.str@PAGE Lloh5: add x19, x19, l_.str@PAGEOFF LBB0_2: ; =>This Inner Loop Header: Depth=1 str x22, [sp] mov x0, x19 bl _scanf ldrsw x8, [sp, #24] lsl x8, x8, #2 ldr w9, [x20, x8] add w9, w9, #1 str w9, [x20, x8] add w21, w21, #1 ldr w8, [sp, #28] cmp w21, w8 b.lt LBB0_2 LBB0_3: add x8, sp, #20 str x8, [sp] Lloh6: adrp x0, l_.str@PAGE Lloh7: add x0, x0, l_.str@PAGEOFF bl _scanf mov w9, #0 mov w8, #34464 movk w8, #1, lsl #16 ldr w10, [sp, #20] LBB0_4: ; =>This Inner Loop Header: Depth=1 ldr w11, [x20, w8, uxtw #2] cmp w11, #0 cinc w9, w9, ne cmp w9, w10 b.eq LBB0_6 ; %bb.5: ; in Loop: Header=BB0_4 Depth=1 sub w8, w8, #1 cmn w8, #1 b.ne LBB0_4 b LBB0_7 LBB0_6: stp x8, x11, [sp] Lloh8: adrp x0, l_.str.1@PAGE Lloh9: add x0, x0, l_.str.1@PAGEOFF bl _printf LBB0_7: mov w0, #0 ldp x29, x30, [sp, #64] ; 16-byte Folded Reload ldp x20, x19, [sp, #48] ; 16-byte Folded Reload ldp x22, x21, [sp, #32] ; 16-byte Folded Reload add sp, sp, #80 ret .loh AdrpLdrGot Lloh2, Lloh3 .loh AdrpAdd Lloh0, Lloh1 .loh AdrpAdd Lloh4, Lloh5 .loh AdrpAdd Lloh6, Lloh7 .loh AdrpAdd Lloh8, Lloh9 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "%d" .comm _arr,400040,2 ; @arr l_.str.1: ; @.str.1 .asciz "%d %d" .subsections_via_symbols
the_stack_data/62741.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _PacketGetLinkLayerFromRegistry ## -- Begin function PacketGetLinkLayerFromRegistry .p2align 4, 0x90 _PacketGetLinkLayerFromRegistry: ## @PacketGetLinkLayerFromRegistry .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rsi, %r15 movl %edi, %r14d movq _GMEM_MOVEABLE@GOTPCREL(%rip), %rax movq _GMEM_ZEROINIT@GOTPCREL(%rip), %rcx movl (%rcx), %edi orl (%rax), %edi movl $7, %esi callq _GlobalAllocPtr testq %rax, %rax je LBB0_1 ## %bb.3: movq %rax, %rbx movq _OID_GEN_MEDIA_IN_USE@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, 16(%rbx) movl $4, (%rbx) movq _FALSE@GOTPCREL(%rip), %r12 movl (%r12), %esi movl %r14d, %edi movq %rbx, %rdx callq _PacketRequest movq 8(%rbx), %rax movl (%rax), %eax movl %eax, (%r15) movq _OID_GEN_LINK_SPEED@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, 16(%rbx) movl $4, (%rbx) movl (%r12), %esi movl %r14d, %edi movq %rbx, %rdx callq _PacketRequest movl %eax, %r14d movq 8(%rbx), %rax imull $100, (%rax), %eax movl %eax, 4(%r15) movq %rbx, %rdi callq _GlobalFreePtr movl (%r15), %esi leaq L_.str.1(%rip), %rdi callq _ODSEx movl 4(%r15), %esi leaq L_.str.2(%rip), %rdi callq _ODSEx movl %r14d, %eax jmp LBB0_2 LBB0_1: leaq L_.str(%rip), %rdi callq _ODS movq _FALSE@GOTPCREL(%rip), %rax movl (%rax), %eax LBB0_2: popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _GMEM_MOVEABLE,4,2 ## @GMEM_MOVEABLE .comm _GMEM_ZEROINIT,4,2 ## @GMEM_ZEROINIT .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "PacketGetLinkLayerFromRegistry failed\n" .comm _FALSE,4,2 ## @FALSE .comm _OID_GEN_MEDIA_IN_USE,4,2 ## @OID_GEN_MEDIA_IN_USE .comm _OID_GEN_LINK_SPEED,4,2 ## @OID_GEN_LINK_SPEED L_.str.1: ## @.str.1 .asciz "Media:%d\n" L_.str.2: ## @.str.2 .asciz "Speed=%d\n" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _PacketGetLinkLayerFromRegistry ; -- Begin function PacketGetLinkLayerFromRegistry .p2align 2 _PacketGetLinkLayerFromRegistry: ; @PacketGetLinkLayerFromRegistry .cfi_startproc ; %bb.0: stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x19, x1 mov x20, x0 Lloh0: adrp x8, _GMEM_MOVEABLE@GOTPAGE Lloh1: ldr x8, [x8, _GMEM_MOVEABLE@GOTPAGEOFF] Lloh2: ldr w8, [x8] Lloh3: adrp x9, _GMEM_ZEROINIT@GOTPAGE Lloh4: ldr x9, [x9, _GMEM_ZEROINIT@GOTPAGEOFF] Lloh5: ldr w9, [x9] orr w0, w9, w8 mov w1, #7 bl _GlobalAllocPtr cbz x0, LBB0_2 ; %bb.1: mov x21, x0 Lloh6: adrp x8, _OID_GEN_MEDIA_IN_USE@GOTPAGE Lloh7: ldr x8, [x8, _OID_GEN_MEDIA_IN_USE@GOTPAGEOFF] Lloh8: ldr w8, [x8] str w8, [x0, #16] mov w22, #4 str w22, [x0] Lloh9: adrp x23, _FALSE@GOTPAGE Lloh10: ldr x23, [x23, _FALSE@GOTPAGEOFF] ldr w1, [x23] mov x0, x20 mov x2, x21 bl _PacketRequest ldr x8, [x21, #8] ldr w8, [x8] str w8, [x19] Lloh11: adrp x8, _OID_GEN_LINK_SPEED@GOTPAGE Lloh12: ldr x8, [x8, _OID_GEN_LINK_SPEED@GOTPAGEOFF] Lloh13: ldr w8, [x8] str w8, [x21, #16] str w22, [x21] ldr w1, [x23] mov x0, x20 mov x2, x21 bl _PacketRequest mov x20, x0 ldr x8, [x21, #8] ldr w8, [x8] mov w9, #100 mul w8, w8, w9 str w8, [x19, #4] mov x0, x21 bl _GlobalFreePtr ldr w1, [x19] Lloh14: adrp x0, l_.str.1@PAGE Lloh15: add x0, x0, l_.str.1@PAGEOFF bl _ODSEx ldr w1, [x19, #4] Lloh16: adrp x0, l_.str.2@PAGE Lloh17: add x0, x0, l_.str.2@PAGEOFF bl _ODSEx mov x0, x20 b LBB0_3 LBB0_2: Lloh18: adrp x0, l_.str@PAGE Lloh19: add x0, x0, l_.str@PAGEOFF bl _ODS Lloh20: adrp x8, _FALSE@GOTPAGE Lloh21: ldr x8, [x8, _FALSE@GOTPAGEOFF] Lloh22: ldr w0, [x8] LBB0_3: ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload ldp x24, x23, [sp], #64 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpAdd Lloh16, Lloh17 .loh AdrpAdd Lloh14, Lloh15 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGot Lloh9, Lloh10 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh20, Lloh21, Lloh22 .loh AdrpAdd Lloh18, Lloh19 .cfi_endproc ; -- End function .comm _GMEM_MOVEABLE,4,2 ; @GMEM_MOVEABLE .comm _GMEM_ZEROINIT,4,2 ; @GMEM_ZEROINIT .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "PacketGetLinkLayerFromRegistry failed\n" .comm _FALSE,4,2 ; @FALSE .comm _OID_GEN_MEDIA_IN_USE,4,2 ; @OID_GEN_MEDIA_IN_USE .comm _OID_GEN_LINK_SPEED,4,2 ; @OID_GEN_LINK_SPEED l_.str.1: ; @.str.1 .asciz "Media:%d\n" l_.str.2: ; @.str.2 .asciz "Speed=%d\n" .subsections_via_symbols
AnghaBench/SoftEtherVPN/src/SeeDll/extr_AdInfo.c_PacketGetLinkLayerFromRegistry.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function __expr_eliminate_eq ___expr_eliminate_eq: ## @__expr_eliminate_eq .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %edi, %ebx movq _e1@GOTPCREL(%rip), %r14 movq _e2@GOTPCREL(%rip), %r15 jmp LBB0_1 .p2align 4, 0x90 LBB0_2: ## in Loop: Header=BB0_1 Depth=1 addq $16, %rsi movq %r15, %rdx LBB0_3: ## in Loop: Header=BB0_1 Depth=1 movl %ebx, %edi callq ___expr_eliminate_eq LBB0_1: ## =>This Inner Loop Header: Depth=1 movq (%r14), %rsi movslq (%rsi), %rax cmpl %ebx, %eax je LBB0_2 ## %bb.4: ## in Loop: Header=BB0_1 Depth=1 movq (%r15), %rdx movslq (%rdx), %rcx cmpl %ebx, %ecx jne LBB0_6 ## %bb.5: ## in Loop: Header=BB0_1 Depth=1 addq $16, %rdx movq %r14, %rsi jmp LBB0_3 LBB0_6: movq _E_SYMBOL@GOTPCREL(%rip), %rdi movq (%rdi), %rdi cmpq %rax, %rdi jne LBB0_11 ## %bb.7: cmpq %rcx, %rdi jne LBB0_11 ## %bb.8: movq 8(%rsi), %rax cmpq 8(%rdx), %rax jne LBB0_11 ## %bb.9: cmpq _symbol_yes@GOTPCREL(%rip), %rax je LBB0_17 ## %bb.10: cmpq _symbol_no@GOTPCREL(%rip), %rax je LBB0_17 LBB0_11: movq %rsi, %rdi movq %rdx, %rsi callq _expr_eq testl %eax, %eax je LBB0_17 ## %bb.12: movq _trans_count@GOTPCREL(%rip), %rax incl (%rax) movq _e1@GOTPCREL(%rip), %r14 movq (%r14), %rdi callq _expr_free movq _e2@GOTPCREL(%rip), %r15 movq (%r15), %rdi callq _expr_free cmpl $128, %ebx je LBB0_13 ## %bb.14: cmpl $129, %ebx jne LBB0_17 ## %bb.15: movq _symbol_yes@GOTPCREL(%rip), %rbx jmp LBB0_16 LBB0_13: movq _symbol_no@GOTPCREL(%rip), %rbx LBB0_16: movq %rbx, %rdi callq _expr_alloc_symbol movq %rax, (%r14) movq %rbx, %rdi callq _expr_alloc_symbol movq %rax, (%r15) LBB0_17: addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _e1,8,3 ## @e1 .comm _e2,8,3 ## @e2 .comm _E_SYMBOL,8,3 ## @E_SYMBOL .comm _symbol_yes,4,2 ## @symbol_yes .comm _symbol_no,4,2 ## @symbol_no .comm _trans_count,4,2 ## @trans_count .no_dead_strip ___expr_eliminate_eq .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function __expr_eliminate_eq ___expr_eliminate_eq: ; @__expr_eliminate_eq .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x0 Lloh0: adrp x21, _e1@GOTPAGE Lloh1: ldr x21, [x21, _e1@GOTPAGEOFF] Lloh2: adrp x20, _e2@GOTPAGE Lloh3: ldr x20, [x20, _e2@GOTPAGEOFF] b LBB0_3 LBB0_1: ; in Loop: Header=BB0_3 Depth=1 add x1, x0, #16 mov x2, x20 LBB0_2: ; in Loop: Header=BB0_3 Depth=1 mov x0, x19 bl ___expr_eliminate_eq LBB0_3: ; =>This Inner Loop Header: Depth=1 ldr x0, [x21] ldrsw x8, [x0] cmp w8, w19 b.eq LBB0_1 ; %bb.4: ; in Loop: Header=BB0_3 Depth=1 ldr x1, [x20] ldrsw x9, [x1] cmp w9, w19 b.ne LBB0_6 ; %bb.5: ; in Loop: Header=BB0_3 Depth=1 add x2, x1, #16 mov x1, x21 b LBB0_2 LBB0_6: Lloh4: adrp x10, _E_SYMBOL@GOTPAGE Lloh5: ldr x10, [x10, _E_SYMBOL@GOTPAGEOFF] Lloh6: ldr x10, [x10] cmp x10, x8 ccmp x10, x9, #0, eq b.ne LBB0_9 ; %bb.7: ldr x8, [x0, #8] ldr x9, [x1, #8] cmp x8, x9 b.ne LBB0_9 ; %bb.8: Lloh7: adrp x9, _symbol_yes@GOTPAGE Lloh8: ldr x9, [x9, _symbol_yes@GOTPAGEOFF] cmp x8, x9 Lloh9: adrp x9, _symbol_no@GOTPAGE Lloh10: ldr x9, [x9, _symbol_no@GOTPAGEOFF] ccmp x8, x9, #4, ne b.eq LBB0_15 LBB0_9: bl _expr_eq cbz w0, LBB0_15 ; %bb.10: Lloh11: adrp x8, _trans_count@GOTPAGE Lloh12: ldr x8, [x8, _trans_count@GOTPAGEOFF] ldr w9, [x8] add w9, w9, #1 str w9, [x8] ldr x0, [x21] bl _expr_free ldr x0, [x20] bl _expr_free cmp w19, #128 b.eq LBB0_13 ; %bb.11: cmp w19, #129 b.ne LBB0_15 ; %bb.12: Lloh13: adrp x19, _symbol_yes@GOTPAGE Lloh14: ldr x19, [x19, _symbol_yes@GOTPAGEOFF] b LBB0_14 LBB0_13: Lloh15: adrp x19, _symbol_no@GOTPAGE Lloh16: ldr x19, [x19, _symbol_no@GOTPAGEOFF] LBB0_14: mov x0, x19 bl _expr_alloc_symbol str x0, [x21] mov x0, x19 bl _expr_alloc_symbol str x0, [x20] LBB0_15: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpLdrGot Lloh2, Lloh3 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6 .loh AdrpLdrGot Lloh9, Lloh10 .loh AdrpLdrGot Lloh7, Lloh8 .loh AdrpLdrGot Lloh11, Lloh12 .loh AdrpLdrGot Lloh13, Lloh14 .loh AdrpLdrGot Lloh15, Lloh16 .cfi_endproc ; -- End function .comm _e1,8,3 ; @e1 .comm _e2,8,3 ; @e2 .comm _E_SYMBOL,8,3 ; @E_SYMBOL .comm _symbol_yes,4,2 ; @symbol_yes .comm _symbol_no,4,2 ; @symbol_no .comm _trans_count,4,2 ; @trans_count .no_dead_strip ___expr_eliminate_eq .subsections_via_symbols
AnghaBench/linux/scripts/kconfig/extr_expr.c___expr_eliminate_eq.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _motion_test1 ## -- Begin function motion_test1 .p2align 4, 0x90 _motion_test1: ## @motion_test1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp ## kill: def $edx killed $edx def $rdx ## kill: def $esi killed $esi def $rsi addl %esi, %edx testl %edi, %edi movl $5, %esi cmovnel %edx, %esi movl $2, %eax cmovnel %ecx, %eax imull %edx, %eax imull %esi, %eax popq %rbp retq .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _motion_test1 ; -- Begin function motion_test1 .p2align 2 _motion_test1: ; @motion_test1 .cfi_startproc ; %bb.0: add w8, w2, w1 mov w9, #5 cmp w0, #0 csel w9, w9, w8, eq mov w10, #2 csel w10, w10, w3, eq mul w8, w10, w8 mul w0, w8, w9 ret .cfi_endproc ; -- End function .subsections_via_symbols
the_stack_data/15762001.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function set_local_port_range _set_local_port_range: ## @set_local_port_range .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rdi, %rbx movq _local_port_range_lock@GOTPCREL(%rip), %r14 movq %r14, %rdi callq _write_seqlock movl (%rbx), %eax movq _local_port_range@GOTPCREL(%rip), %rcx movq (%rcx), %rcx movl %eax, (%rcx) movl 4(%rbx), %eax movl %eax, 4(%rcx) movq %r14, %rdi popq %rbx popq %r14 popq %rbp jmp _write_sequnlock ## TAILCALL .cfi_endproc ## -- End function .comm _local_port_range_lock,4,2 ## @local_port_range_lock .comm _local_port_range,8,3 ## @local_port_range .no_dead_strip _set_local_port_range .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function set_local_port_range _set_local_port_range: ; @set_local_port_range .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x0 Lloh0: adrp x20, _local_port_range_lock@GOTPAGE Lloh1: ldr x20, [x20, _local_port_range_lock@GOTPAGEOFF] mov x0, x20 bl _write_seqlock Lloh2: adrp x8, _local_port_range@GOTPAGE Lloh3: ldr x8, [x8, _local_port_range@GOTPAGEOFF] ldr w9, [x19] Lloh4: ldr x8, [x8] str w9, [x8] ldr w9, [x19, #4] str w9, [x8, #4] mov x0, x20 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _write_sequnlock .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpLdrGot Lloh0, Lloh1 .cfi_endproc ; -- End function .comm _local_port_range_lock,4,2 ; @local_port_range_lock .comm _local_port_range,8,3 ; @local_port_range .no_dead_strip _set_local_port_range .subsections_via_symbols
AnghaBench/linux/net/phonet/extr_sysctl.c_set_local_port_range.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function cp1251_mbtowc _cp1251_mbtowc: ## @cp1251_mbtowc .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdx), %eax testb %al, %al js LBB0_2 ## %bb.1: movq %rax, (%rsi) movl $1, %eax popq %rbp retq LBB0_2: movq _cp1251_2uni@GOTPCREL(%rip), %rcx movq (%rcx), %rcx addl $-128, %eax movzwl (%rcx,%rax,2), %ecx cmpq $65533, %rcx ## imm = 0xFFFD je LBB0_4 ## %bb.3: movq %rcx, (%rsi) LBB0_4: movl $1, %eax cmpw $-3, %cx jne LBB0_6 ## %bb.5: movq _RET_ILSEQ@GOTPCREL(%rip), %rax movl (%rax), %eax LBB0_6: popq %rbp retq .cfi_endproc ## -- End function .comm _cp1251_2uni,8,3 ## @cp1251_2uni .comm _RET_ILSEQ,4,2 ## @RET_ILSEQ .no_dead_strip _cp1251_mbtowc .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function cp1251_mbtowc _cp1251_mbtowc: ; @cp1251_mbtowc .cfi_startproc ; %bb.0: ldrsb w9, [x2] and x8, x9, #0xff tbnz w9, #31, LBB0_2 ; %bb.1: str x8, [x1] mov w0, #1 ret LBB0_2: Lloh0: adrp x9, _cp1251_2uni@GOTPAGE Lloh1: ldr x9, [x9, _cp1251_2uni@GOTPAGEOFF] Lloh2: ldr x9, [x9] sub w8, w8, #128 ldrh w8, [x9, w8, uxtw #1] mov w9, #65533 cmp x8, x9 b.eq LBB0_4 ; %bb.3: str x8, [x1] LBB0_4: Lloh3: adrp x10, _RET_ILSEQ@GOTPAGE Lloh4: ldr x10, [x10, _RET_ILSEQ@GOTPAGEOFF] Lloh5: ldr w10, [x10] cmp w8, w9 csinc w0, w10, wzr, eq ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .cfi_endproc ; -- End function .comm _cp1251_2uni,8,3 ; @cp1251_2uni .comm _RET_ILSEQ,4,2 ; @RET_ILSEQ .no_dead_strip _cp1251_mbtowc .subsections_via_symbols
AnghaBench/TDengine/deps/iconv/extr_cp1251.h_cp1251_mbtowc.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _kuhl_m_lsadump_lsa_getHandle ## -- Begin function kuhl_m_lsadump_lsa_getHandle .p2align 4, 0x90 _kuhl_m_lsadump_lsa_getHandle: ## @kuhl_m_lsadump_lsa_getHandle .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %esi, %r15d movq %rdi, %r14 movq _FALSE@GOTPCREL(%rip), %r12 movl (%r12), %ebx leaq l_.str(%rip), %rdi leaq -40(%rbp), %rsi callq _kull_m_service_getUniqueForName testq %rax, %rax je LBB0_5 ## %bb.1: movl (%r12), %esi movl -40(%rbp), %edx movl %r15d, %edi callq _OpenProcess testl %eax, %eax je LBB0_4 ## %bb.2: movl %eax, %r15d movq _KULL_M_MEMORY_TYPE_PROCESS@GOTPCREL(%rip), %rax movl (%rax), %edi movl %r15d, %esi movq %r14, %rdx callq _kull_m_memory_open movl %eax, %ebx testl %eax, %eax jne LBB0_7 ## %bb.3: movl %r15d, %edi callq _CloseHandle xorl %ebx, %ebx jmp LBB0_7 LBB0_5: leaq l_.str.2(%rip), %rdi jmp LBB0_6 LBB0_4: leaq l_.str.1(%rip), %rdi LBB0_6: callq _PRINT_ERROR_AUTO LBB0_7: movl %ebx, %eax addq $16, %rsp popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _FALSE,4,2 ## @FALSE .section __TEXT,__const .p2align 2 ## @.str l_.str: .long 83 ## 0x53 .long 97 ## 0x61 .long 109 ## 0x6d .long 83 ## 0x53 .long 115 ## 0x73 .long 0 ## 0x0 .comm _KULL_M_MEMORY_TYPE_PROCESS,4,2 ## @KULL_M_MEMORY_TYPE_PROCESS .p2align 2 ## @.str.1 l_.str.1: .long 79 ## 0x4f .long 112 ## 0x70 .long 101 ## 0x65 .long 110 ## 0x6e .long 80 ## 0x50 .long 114 ## 0x72 .long 111 ## 0x6f .long 99 ## 0x63 .long 101 ## 0x65 .long 115 ## 0x73 .long 115 ## 0x73 .long 0 ## 0x0 .p2align 2 ## @.str.2 l_.str.2: .long 107 ## 0x6b .long 117 ## 0x75 .long 108 ## 0x6c .long 108 ## 0x6c .long 95 ## 0x5f .long 109 ## 0x6d .long 95 ## 0x5f .long 115 ## 0x73 .long 101 ## 0x65 .long 114 ## 0x72 .long 118 ## 0x76 .long 105 ## 0x69 .long 99 ## 0x63 .long 101 ## 0x65 .long 95 ## 0x5f .long 103 ## 0x67 .long 101 ## 0x65 .long 116 ## 0x74 .long 85 ## 0x55 .long 110 ## 0x6e .long 105 ## 0x69 .long 113 ## 0x71 .long 117 ## 0x75 .long 101 ## 0x65 .long 70 ## 0x46 .long 111 ## 0x6f .long 114 ## 0x72 .long 78 ## 0x4e .long 97 ## 0x61 .long 109 ## 0x6d .long 101 ## 0x65 .long 0 ## 0x0 .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _kuhl_m_lsadump_lsa_getHandle ; -- Begin function kuhl_m_lsadump_lsa_getHandle .p2align 2 _kuhl_m_lsadump_lsa_getHandle: ; @kuhl_m_lsadump_lsa_getHandle .cfi_startproc ; %bb.0: sub sp, sp, #64 .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x21, x1 mov x20, x0 Lloh0: adrp x22, _FALSE@GOTPAGE Lloh1: ldr x22, [x22, _FALSE@GOTPAGEOFF] ldr w19, [x22] Lloh2: adrp x0, l_.str@PAGE Lloh3: add x0, x0, l_.str@PAGEOFF add x1, sp, #8 bl _kull_m_service_getUniqueForName cbz x0, LBB0_4 ; %bb.1: ldr w1, [x22] ldr w2, [sp, #8] mov x0, x21 bl _OpenProcess cbz w0, LBB0_5 ; %bb.2: mov x21, x0 Lloh4: adrp x8, _KULL_M_MEMORY_TYPE_PROCESS@GOTPAGE Lloh5: ldr x8, [x8, _KULL_M_MEMORY_TYPE_PROCESS@GOTPAGEOFF] Lloh6: ldr w0, [x8] mov x1, x21 mov x2, x20 bl _kull_m_memory_open mov x19, x0 cbnz w0, LBB0_7 ; %bb.3: mov x0, x21 bl _CloseHandle b LBB0_7 LBB0_4: Lloh7: adrp x0, l_.str.2@PAGE Lloh8: add x0, x0, l_.str.2@PAGEOFF b LBB0_6 LBB0_5: Lloh9: adrp x0, l_.str.1@PAGE Lloh10: add x0, x0, l_.str.1@PAGEOFF LBB0_6: bl _PRINT_ERROR_AUTO LBB0_7: mov x0, x19 ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload add sp, sp, #64 ret .loh AdrpAdd Lloh2, Lloh3 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6 .loh AdrpAdd Lloh7, Lloh8 .loh AdrpAdd Lloh9, Lloh10 .cfi_endproc ; -- End function .comm _FALSE,4,2 ; @FALSE .section __TEXT,__const .p2align 2 ; @.str l_.str: .long 83 ; 0x53 .long 97 ; 0x61 .long 109 ; 0x6d .long 83 ; 0x53 .long 115 ; 0x73 .long 0 ; 0x0 .comm _KULL_M_MEMORY_TYPE_PROCESS,4,2 ; @KULL_M_MEMORY_TYPE_PROCESS .p2align 2 ; @.str.1 l_.str.1: .long 79 ; 0x4f .long 112 ; 0x70 .long 101 ; 0x65 .long 110 ; 0x6e .long 80 ; 0x50 .long 114 ; 0x72 .long 111 ; 0x6f .long 99 ; 0x63 .long 101 ; 0x65 .long 115 ; 0x73 .long 115 ; 0x73 .long 0 ; 0x0 .p2align 2 ; @.str.2 l_.str.2: .long 107 ; 0x6b .long 117 ; 0x75 .long 108 ; 0x6c .long 108 ; 0x6c .long 95 ; 0x5f .long 109 ; 0x6d .long 95 ; 0x5f .long 115 ; 0x73 .long 101 ; 0x65 .long 114 ; 0x72 .long 118 ; 0x76 .long 105 ; 0x69 .long 99 ; 0x63 .long 101 ; 0x65 .long 95 ; 0x5f .long 103 ; 0x67 .long 101 ; 0x65 .long 116 ; 0x74 .long 85 ; 0x55 .long 110 ; 0x6e .long 105 ; 0x69 .long 113 ; 0x71 .long 117 ; 0x75 .long 101 ; 0x65 .long 70 ; 0x46 .long 111 ; 0x6f .long 114 ; 0x72 .long 78 ; 0x4e .long 97 ; 0x61 .long 109 ; 0x6d .long 101 ; 0x65 .long 0 ; 0x0 .subsections_via_symbols
AnghaBench/mimikatz/mimikatz/modules/extr_kuhl_m_lsadump.c_kuhl_m_lsadump_lsa_getHandle.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function posixOpen _posixOpen: ## @posixOpen .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp popq %rbp jmp _open ## TAILCALL .cfi_endproc ## -- End function .no_dead_strip _posixOpen .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function posixOpen _posixOpen: ; @posixOpen .cfi_startproc ; %bb.0: b _open .cfi_endproc ; -- End function .no_dead_strip _posixOpen .subsections_via_symbols
AnghaBench/mimikatz/modules/extr_sqlite3_omit.c_posixOpen.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function atc_get_xfer_width _atc_get_xfer_width: ## @atc_get_xfer_width .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp orq %rsi, %rdi orq %rdx, %rdi movl %edi, %ecx notl %ecx andl $1, %ecx testb $3, %dil movl $2, %eax cmovnel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .no_dead_strip _atc_get_xfer_width .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function atc_get_xfer_width _atc_get_xfer_width: ; @atc_get_xfer_width .cfi_startproc ; %bb.0: orr x8, x1, x0 orr x8, x8, x2 mvn w9, w8 and w9, w9, #0x1 tst x8, #0x3 mov w8, #2 csel w0, w8, w9, eq ret .cfi_endproc ; -- End function .no_dead_strip _atc_get_xfer_width .subsections_via_symbols
AnghaBench/linux/drivers/dma/extr_at_hdmac.c_atc_get_xfer_width.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function renameParseSql _renameParseSql: ## @renameParseSql .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %r8, %r15 movq %rcx, %r14 movl %edx, %r12d movq %rdi, %rbx movq $0, -40(%rbp) movl $1, %eax testl %r9d, %r9d jne LBB0_2 ## %bb.1: movq %r14, %rdi callq _sqlite3FindDbName LBB0_2: movl %eax, (%r14) movq %rbx, %rdi xorl %esi, %esi movl $64, %edx callq _memset testl %r12d, %r12d jne LBB0_3 ## %bb.4: movq _PARSE_MODE_RENAME_COLUMN@GOTPCREL(%rip), %rax jmp LBB0_5 LBB0_3: movq _PARSE_MODE_RENAME_TABLE@GOTPCREL(%rip), %rax LBB0_5: movl (%rax), %eax movl %eax, 56(%rbx) movq %r14, 48(%rbx) movl $1, (%rbx) leaq -40(%rbp), %rdx movq %rbx, %rdi movq %r15, %rsi callq _sqlite3RunParser movl %eax, %r15d xorl %edi, %edi cmpq $0, 8(%rbx) sete %dil callq _assert movq _SQLITE_OK@GOTPCREL(%rip), %r12 cmpl (%r12), %r15d setne %al cmpq $0, -40(%rbp) sete %cl orb %al, %cl movzbl %cl, %edi callq _assert movq -40(%rbp), %rax movq %rax, 8(%rbx) cmpq $0, 8(%r14) je LBB0_7 ## %bb.6: movq _SQLITE_NOMEM@GOTPCREL(%rip), %rax movl (%rax), %r15d LBB0_7: cmpl (%r12), %r15d jne LBB0_12 ## %bb.8: cmpq $0, 16(%rbx) jne LBB0_12 ## %bb.9: cmpq $0, 24(%rbx) jne LBB0_12 ## %bb.10: cmpq $0, 32(%rbx) jne LBB0_12 ## %bb.11: movq _SQLITE_CORRUPT_BKPT@GOTPCREL(%rip), %rax movl (%rax), %r15d LBB0_12: movl $0, (%r14) movl %r15d, %eax addq $16, %rsp popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _PARSE_MODE_RENAME_TABLE,4,2 ## @PARSE_MODE_RENAME_TABLE .comm _PARSE_MODE_RENAME_COLUMN,4,2 ## @PARSE_MODE_RENAME_COLUMN .comm _SQLITE_OK,4,2 ## @SQLITE_OK .comm _SQLITE_NOMEM,4,2 ## @SQLITE_NOMEM .comm _SQLITE_CORRUPT_BKPT,4,2 ## @SQLITE_CORRUPT_BKPT .no_dead_strip _renameParseSql .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function renameParseSql _renameParseSql: ; @renameParseSql .cfi_startproc ; %bb.0: sub sp, sp, #80 .cfi_def_cfa_offset 80 stp x24, x23, [sp, #16] ; 16-byte Folded Spill stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x21, x4 mov x19, x3 mov x22, x2 mov x20, x0 str xzr, [sp, #8] mov w23, #1 mov w0, #1 cbnz w5, LBB0_2 ; %bb.1: mov x0, x19 bl _sqlite3FindDbName LBB0_2: str w0, [x19] mov x0, x20 mov w1, #0 mov w2, #64 bl _memset Lloh0: adrp x8, _PARSE_MODE_RENAME_TABLE@GOTPAGE Lloh1: ldr x8, [x8, _PARSE_MODE_RENAME_TABLE@GOTPAGEOFF] Lloh2: adrp x9, _PARSE_MODE_RENAME_COLUMN@GOTPAGE Lloh3: ldr x9, [x9, _PARSE_MODE_RENAME_COLUMN@GOTPAGEOFF] cmp w22, #0 csel x8, x9, x8, eq ldr w8, [x8] str w8, [x20, #56] str x19, [x20, #48] str w23, [x20] add x2, sp, #8 mov x0, x20 mov x1, x21 bl _sqlite3RunParser mov x21, x0 ldr x8, [x20, #8] cmp x8, #0 cset w0, eq bl _assert Lloh4: adrp x22, _SQLITE_OK@GOTPAGE Lloh5: ldr x22, [x22, _SQLITE_OK@GOTPAGEOFF] ldr w8, [x22] cmp w21, w8 ldr x8, [sp, #8] ccmp x8, #0, #4, eq cset w0, eq bl _assert ldr x8, [sp, #8] str x8, [x20, #8] Lloh6: adrp x8, _SQLITE_NOMEM@GOTPAGE Lloh7: ldr x8, [x8, _SQLITE_NOMEM@GOTPAGEOFF] ldr x9, [x19, #8] Lloh8: ldr w8, [x8] cmp x9, #0 csel w0, w21, w8, eq ldr w8, [x22] cmp w0, w8 b.ne LBB0_6 ; %bb.3: ldr x8, [x20, #16] cbnz x8, LBB0_6 ; %bb.4: ldr x8, [x20, #24] cbnz x8, LBB0_6 ; %bb.5: ldr x8, [x20, #32] Lloh9: adrp x9, _SQLITE_CORRUPT_BKPT@GOTPAGE Lloh10: ldr x9, [x9, _SQLITE_CORRUPT_BKPT@GOTPAGEOFF] Lloh11: ldr w9, [x9] cmp x8, #0 csel w0, w9, w0, eq LBB0_6: str wzr, [x19] ldp x29, x30, [sp, #64] ; 16-byte Folded Reload ldp x20, x19, [sp, #48] ; 16-byte Folded Reload ldp x22, x21, [sp, #32] ; 16-byte Folded Reload ldp x24, x23, [sp, #16] ; 16-byte Folded Reload add sp, sp, #80 ret .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGot Lloh4, Lloh5 .loh AdrpLdrGot Lloh2, Lloh3 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .cfi_endproc ; -- End function .comm _PARSE_MODE_RENAME_TABLE,4,2 ; @PARSE_MODE_RENAME_TABLE .comm _PARSE_MODE_RENAME_COLUMN,4,2 ; @PARSE_MODE_RENAME_COLUMN .comm _SQLITE_OK,4,2 ; @SQLITE_OK .comm _SQLITE_NOMEM,4,2 ; @SQLITE_NOMEM .comm _SQLITE_CORRUPT_BKPT,4,2 ; @SQLITE_CORRUPT_BKPT .no_dead_strip _renameParseSql .subsections_via_symbols
AnghaBench/wcdb/android/sqlcipher/extr_sqlite3.c_renameParseSql.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__literal16,16byte_literals .p2align 4 ## -- Begin function main LCPI0_0: .long 4294967248 ## 0xffffffd0 .long 4294967248 ## 0xffffffd0 .long 4294967248 ## 0xffffffd0 .long 4294967248 ## 0xffffffd0 .section __TEXT,__text,regular,pure_instructions .globl _main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx subq $456, %rsp ## imm = 0x1C8 .cfi_offset %rbx, -24 movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -16(%rbp) leaq L_.str(%rip), %rbx leaq -48(%rbp), %rsi movq %rbx, %rdi xorl %eax, %eax callq _scanf movq -27(%rbp), %rax movq %rax, -28(%rbp) movzwl -19(%rbp), %eax movw %ax, -20(%rbp) pmovsxbd -48(%rbp), %xmm0 movdqa LCPI0_0(%rip), %xmm1 ## xmm1 = [4294967248,4294967248,4294967248,4294967248] paddd %xmm1, %xmm0 movdqa %xmm0, -208(%rbp) pmovsxbd -44(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -192(%rbp) pmovsxbd -40(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -176(%rbp) pmovsxbd -36(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -160(%rbp) pmovsxbd -32(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -144(%rbp) pmovsxbd -28(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -128(%rbp) pmovsxbd -24(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -112(%rbp) movsbl -20(%rbp), %eax addl $-48, %eax movl %eax, -96(%rbp) movsbl -19(%rbp), %eax addl $-48, %eax movl %eax, -92(%rbp) leaq L_str(%rip), %rdi callq _puts leaq -80(%rbp), %rsi movq %rbx, %rdi xorl %eax, %eax callq _scanf movq -59(%rbp), %rax movq %rax, -60(%rbp) movzwl -51(%rbp), %eax movw %ax, -52(%rbp) pmovsxbd -80(%rbp), %xmm0 movdqa LCPI0_0(%rip), %xmm1 ## xmm1 = [4294967248,4294967248,4294967248,4294967248] paddd %xmm1, %xmm0 movdqa %xmm0, -336(%rbp) pmovsxbd -76(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -320(%rbp) pmovsxbd -72(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -304(%rbp) pmovsxbd -68(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -288(%rbp) pmovsxbd -64(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -272(%rbp) pmovsxbd -60(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -256(%rbp) pmovsxbd -56(%rbp), %xmm0 paddd %xmm1, %xmm0 movdqa %xmm0, -240(%rbp) movsbl -52(%rbp), %eax addl $-48, %eax movl %eax, -224(%rbp) movsbl -51(%rbp), %eax addl $-48, %eax movl %eax, -220(%rbp) leaq L_str.6(%rip), %rdi callq _puts movdqa -336(%rbp), %xmm0 movdqa -320(%rbp), %xmm1 movdqa -304(%rbp), %xmm2 paddd -208(%rbp), %xmm0 movdqa -288(%rbp), %xmm3 movdqa %xmm0, -464(%rbp) paddd -192(%rbp), %xmm1 movdqa %xmm1, -448(%rbp) paddd -176(%rbp), %xmm2 movdqa %xmm2, -432(%rbp) paddd -160(%rbp), %xmm3 movdqa %xmm3, -416(%rbp) movdqa -272(%rbp), %xmm0 paddd -144(%rbp), %xmm0 movdqa %xmm0, -400(%rbp) movdqa -256(%rbp), %xmm0 paddd -128(%rbp), %xmm0 movdqa %xmm0, -384(%rbp) movdqa -240(%rbp), %xmm0 paddd -112(%rbp), %xmm0 movdqa %xmm0, -368(%rbp) movl -224(%rbp), %eax addl -96(%rbp), %eax movl %eax, -352(%rbp) movl -220(%rbp), %eax addl -92(%rbp), %eax movl %eax, -348(%rbp) movl $29, %eax jmp LBB0_1 .p2align 4, 0x90 LBB0_3: ## in Loop: Header=BB0_1 Depth=1 addl $-10, %ecx movl %ecx, -464(%rbp,%rax,4) leaq -1(%rax), %rcx incl -468(%rbp,%rax,4) LBB0_4: ## in Loop: Header=BB0_1 Depth=1 testq %rax, %rax movq %rcx, %rax je LBB0_5 LBB0_1: ## =>This Inner Loop Header: Depth=1 movl -464(%rbp,%rax,4), %ecx cmpl $9, %ecx jg LBB0_3 ## %bb.2: ## in Loop: Header=BB0_1 Depth=1 leaq -1(%rax), %rcx jmp LBB0_4 LBB0_5: movl -464(%rbp), %esi leaq L_.str.3(%rip), %rbx movq %rbx, %rdi xorl %eax, %eax callq _printf movl -460(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -456(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -452(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -448(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -444(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -440(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -436(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -432(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -428(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -424(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -420(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -416(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -412(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -408(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -404(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -400(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -396(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -392(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -388(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl $46, %edi callq _putchar movl -384(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -380(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -376(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -372(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -368(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -364(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -360(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -356(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -352(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl -348(%rbp), %esi movq %rbx, %rdi xorl %eax, %eax callq _printf movl $10, %edi callq _putchar movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -16(%rbp), %rax jne LBB0_7 ## %bb.6: xorl %eax, %eax addq $456, %rsp ## imm = 0x1C8 popq %rbx popq %rbp retq LBB0_7: callq ___stack_chk_fail .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "%s" L_.str.3: ## @.str.3 .asciz "%d" L_str: ## @str .asciz "+" L_str.6: ## @str.6 .asciz "=" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: stp x28, x27, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w27, -40 .cfi_offset w28, -48 sub sp, sp, #480 sub x20, x29, #104 Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] stur x8, [x29, #-40] sub x8, x29, #72 str x8, [sp] Lloh3: adrp x19, l_.str@PAGE Lloh4: add x19, x19, l_.str@PAGEOFF mov x0, x19 bl _scanf ldur x8, [x20, #53] stur x8, [x20, #52] ldurh w8, [x20, #61] sturh w8, [x29, #-44] ldur s0, [x29, #-72] sshll.8h v0, v0, #0 mvni.4s v1, #47 saddw.4s v2, v1, v0 ldur s0, [x29, #-68] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 stp q2, q0, [x29, #-240] ldur s0, [x29, #-64] sshll.8h v0, v0, #0 saddw.4s v2, v1, v0 ldur s0, [x29, #-60] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 stp q2, q0, [x29, #-208] ldur s0, [x29, #-56] sshll.8h v0, v0, #0 saddw.4s v2, v1, v0 ldur s0, [x29, #-52] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 stp q2, q0, [x29, #-176] ldur s0, [x29, #-48] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 stur q0, [x29, #-144] ldursb w8, [x29, #-44] sub w8, w8, #48 ldursb w9, [x29, #-43] sub w9, w9, #48 stp w8, w9, [x29, #-128] Lloh5: adrp x0, l_str@PAGE Lloh6: add x0, x0, l_str@PAGEOFF bl _puts str x20, [sp] mov x0, x19 bl _scanf ldur x8, [x20, #21] stur x8, [x20, #20] ldurh w8, [x20, #29] sturh w8, [x29, #-76] ldur s0, [x29, #-104] sshll.8h v0, v0, #0 mvni.4s v1, #47 saddw.4s v0, v1, v0 str q0, [sp, #144] ldur s0, [x29, #-100] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 str q0, [sp, #160] ldur s0, [x29, #-96] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 str q0, [sp, #176] ldur s0, [x29, #-92] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 str q0, [sp, #192] ldur s0, [x29, #-88] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 str q0, [sp, #208] ldur s0, [x29, #-84] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 mvni.4s v1, #47 str q0, [sp, #224] ldur s0, [x29, #-80] sshll.8h v0, v0, #0 saddw.4s v0, v1, v0 str q0, [sp, #240] ldursb w8, [x29, #-76] sub w8, w8, #48 ldursb w9, [x29, #-75] sub w9, w9, #48 str w8, [sp, #256] str w9, [sp, #260] Lloh7: adrp x0, l_str.6@PAGE Lloh8: add x0, x0, l_str.6@PAGEOFF bl _puts ldp q0, q1, [x29, #-240] ldp q2, q3, [sp, #144] add.4s v0, v2, v0 add.4s v1, v3, v1 stp q0, q1, [sp, #16] ldp q0, q1, [x29, #-208] ldp q2, q3, [sp, #176] add.4s v0, v2, v0 add.4s v1, v3, v1 stp q0, q1, [sp, #48] ldp q0, q1, [x29, #-176] ldp q2, q3, [sp, #208] add.4s v0, v2, v0 add.4s v1, v3, v1 ldp w8, w9, [x29, #-128] ldr w10, [sp, #256] ldr w11, [sp, #260] add w8, w10, w8 add w9, w11, w9 stp q0, q1, [sp, #80] ldur q0, [x29, #-144] ldr q1, [sp, #240] add.4s v0, v1, v0 stp w8, w9, [sp, #128] mov w10, #29 add x8, sp, #16 str q0, [sp, #112] b LBB0_2 LBB0_1: ; in Loop: Header=BB0_2 Depth=1 sub w10, w10, #10 str w10, [x8, x9, lsl #2] sub x10, x9, #1 lsl x11, x10, #2 ldr w12, [x8, x11] add w12, w12, #1 str w12, [x8, x11] cbz x9, LBB0_4 LBB0_2: ; =>This Inner Loop Header: Depth=1 mov x9, x10 ldr w10, [x8, x10, lsl #2] cmp w10, #9 b.gt LBB0_1 ; %bb.3: ; in Loop: Header=BB0_2 Depth=1 sub x10, x9, #1 cbnz x9, LBB0_2 LBB0_4: ldr w8, [sp, #16] str x8, [sp] Lloh9: adrp x19, l_.str.3@PAGE Lloh10: add x19, x19, l_.str.3@PAGEOFF mov x0, x19 bl _printf ldr w8, [sp, #20] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #24] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #28] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #32] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #36] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #40] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #44] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #48] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #52] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #56] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #60] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #64] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #68] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #72] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #76] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #80] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #84] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #88] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #92] str x8, [sp] mov x0, x19 bl _printf mov w0, #46 bl _putchar ldr w8, [sp, #96] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #100] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #104] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #108] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #112] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #116] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #120] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #124] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #128] str x8, [sp] mov x0, x19 bl _printf ldr w8, [sp, #132] str x8, [sp] mov x0, x19 bl _printf mov w0, #10 bl _putchar ldur x8, [x29, #-40] Lloh11: adrp x9, ___stack_chk_guard@GOTPAGE Lloh12: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh13: ldr x9, [x9] cmp x9, x8 b.ne LBB0_6 ; %bb.5: mov w0, #0 add sp, sp, #480 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x28, x27, [sp], #48 ; 16-byte Folded Reload ret LBB0_6: bl ___stack_chk_fail .loh AdrpAdd Lloh7, Lloh8 .loh AdrpAdd Lloh5, Lloh6 .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpAdd Lloh9, Lloh10 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "%s" l_.str.3: ; @.str.3 .asciz "%d" l_str: ; @str .asciz "+" l_str.6: ; @str.6 .asciz "=" .subsections_via_symbols
the_stack_data/187643011.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _hammingWeight ## -- Begin function hammingWeight .p2align 4, 0x90 _hammingWeight: ## @hammingWeight .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testl %edi, %edi je LBB0_3 ## %bb.1: movl %edi, %ecx .p2align 4, 0x90 LBB0_2: ## =>This Inner Loop Header: Depth=1 movl %edi, %edx andl $1, %edx addl %edx, %eax shrl %ecx cmpl $1, %edi movl %ecx, %edi ja LBB0_2 LBB0_3: popq %rbp retq .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _hammingWeight ; -- Begin function hammingWeight .p2align 2 _hammingWeight: ; @hammingWeight .cfi_startproc ; %bb.0: cbz w0, LBB0_3 ; %bb.1: mov x8, x0 mov w0, #0 LBB0_2: ; =>This Inner Loop Header: Depth=1 and w9, w8, #0x1 add w0, w0, w9 lsr w9, w8, #1 cmp w8, #1 mov x8, x9 b.hi LBB0_2 LBB0_3: ret .cfi_endproc ; -- End function .subsections_via_symbols
the_stack_data/58249.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function wait_loop _wait_loop: ## @wait_loop .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdx, %rbx movl %esi, %r14d movq _jiffies@GOTPCREL(%rip), %rax movl (%rax), %eax movl (%rdx), %esi addl $5, %esi movq _HZ@GOTPCREL(%rip), %r15 imull (%r15), %esi addq %rdi, %rsi movl %eax, %edi callq _time_after testq %rax, %rax je LBB0_5 ## %bb.1: movl (%rbx), %eax testl %eax, %eax jne LBB0_3 ## %bb.2: leaq L_.str(%rip), %rdi callq _pr_warn movl (%rbx), %eax LBB0_3: addl $5, %eax movl %eax, (%rbx) movl %r14d, %esi subl %eax, %esi leaq L_.str.1(%rip), %rdi xorl %eax, %eax callq _pr_cont cmpl %r14d, (%rbx) jne LBB0_5 ## %bb.4: leaq L_.str.2(%rip), %rdi xorl %eax, %eax callq _pr_cont movl $1, %eax jmp LBB0_6 LBB0_5: movl (%r15), %eax movl $3435973837, %edi ## imm = 0xCCCCCCCD imulq %rax, %rdi shrq $35, %rdi ## kill: def $edi killed $edi killed $rdi callq _schedule_timeout_interruptible xorl %eax, %eax LBB0_6: addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _jiffies,4,2 ## @jiffies .comm _HZ,4,2 ## @HZ .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Waiting for devices to initialise: " L_.str.1: ## @.str.1 .asciz "%us..." L_.str.2: ## @.str.2 .asciz "\n" .no_dead_strip _wait_loop .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function wait_loop _wait_loop: ; @wait_loop .cfi_startproc ; %bb.0: sub sp, sp, #64 .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x20, x2 mov x19, x1 Lloh0: adrp x8, _jiffies@GOTPAGE Lloh1: ldr x8, [x8, _jiffies@GOTPAGEOFF] Lloh2: ldr w8, [x8] ldr w9, [x2] add w9, w9, #5 Lloh3: adrp x21, _HZ@GOTPAGE Lloh4: ldr x21, [x21, _HZ@GOTPAGEOFF] ldr w10, [x21] mul w9, w9, w10 add x1, x9, x0 mov x0, x8 bl _time_after cbz x0, LBB0_5 ; %bb.1: ldr w8, [x20] cbnz w8, LBB0_3 ; %bb.2: Lloh5: adrp x0, l_.str@PAGE Lloh6: add x0, x0, l_.str@PAGEOFF bl _pr_warn ldr w8, [x20] LBB0_3: add w8, w8, #5 str w8, [x20] sub w8, w19, w8 str x8, [sp] Lloh7: adrp x0, l_.str.1@PAGE Lloh8: add x0, x0, l_.str.1@PAGEOFF bl _pr_cont ldr w8, [x20] cmp w8, w19 b.ne LBB0_5 ; %bb.4: Lloh9: adrp x0, l_.str.2@PAGE Lloh10: add x0, x0, l_.str.2@PAGEOFF bl _pr_cont mov w0, #1 b LBB0_6 LBB0_5: ldr w8, [x21] mov w9, #52429 movk w9, #52428, lsl #16 mul x8, x8, x9 lsr x0, x8, #35 ; kill: def $w0 killed $w0 killed $x0 bl _schedule_timeout_interruptible mov w0, #0 LBB0_6: ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload add sp, sp, #64 ret .loh AdrpLdrGot Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpAdd Lloh5, Lloh6 .loh AdrpAdd Lloh7, Lloh8 .loh AdrpAdd Lloh9, Lloh10 .cfi_endproc ; -- End function .comm _jiffies,4,2 ; @jiffies .comm _HZ,4,2 ; @HZ .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Waiting for devices to initialise: " l_.str.1: ; @.str.1 .asciz "%us..." l_.str.2: ; @.str.2 .asciz "\n" .no_dead_strip _wait_loop .subsections_via_symbols
AnghaBench/linux/drivers/xen/xenbus/extr_xenbus_probe_frontend.c_wait_loop.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _ar5211GetRxDP ## -- Begin function ar5211GetRxDP .p2align 4, 0x90 _ar5211GetRxDP: ## @ar5211GetRxDP .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 movq %rdi, %rbx movq _HAL_RX_QUEUE_HP@GOTPCREL(%rip), %rax xorl %edi, %edi cmpq %rsi, (%rax) sete %dil callq _HALASSERT movq _AR_RXDP@GOTPCREL(%rip), %rax movl (%rax), %esi movq %rbx, %rdi addq $8, %rsp popq %rbx popq %rbp jmp _OS_REG_READ ## TAILCALL .cfi_endproc ## -- End function .comm _HAL_RX_QUEUE_HP,8,3 ## @HAL_RX_QUEUE_HP .comm _AR_RXDP,4,2 ## @AR_RXDP .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _ar5211GetRxDP ; -- Begin function ar5211GetRxDP .p2align 2 _ar5211GetRxDP: ; @ar5211GetRxDP .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x0 Lloh0: adrp x8, _HAL_RX_QUEUE_HP@GOTPAGE Lloh1: ldr x8, [x8, _HAL_RX_QUEUE_HP@GOTPAGEOFF] Lloh2: ldr x8, [x8] cmp x8, x1 cset w0, eq bl _HALASSERT Lloh3: adrp x8, _AR_RXDP@GOTPAGE Lloh4: ldr x8, [x8, _AR_RXDP@GOTPAGEOFF] Lloh5: ldr w1, [x8] mov x0, x19 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _OS_REG_READ .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _HAL_RX_QUEUE_HP,8,3 ; @HAL_RX_QUEUE_HP .comm _AR_RXDP,4,2 ; @AR_RXDP .subsections_via_symbols
AnghaBench/freebsd/sys/dev/ath/ath_hal/ar5211/extr_ar5211_recv.c_ar5211GetRxDP.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function pmu_disable_counter _pmu_disable_counter: ## @pmu_disable_counter .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %esi, %edx movq _CCI_PMU_CNTR_CTRL@GOTPCREL(%rip), %rax movl (%rax), %ecx xorl %esi, %esi popq %rbp jmp _pmu_write_register ## TAILCALL .cfi_endproc ## -- End function .comm _CCI_PMU_CNTR_CTRL,4,2 ## @CCI_PMU_CNTR_CTRL .no_dead_strip _pmu_disable_counter .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function pmu_disable_counter _pmu_disable_counter: ; @pmu_disable_counter .cfi_startproc ; %bb.0: mov x2, x1 Lloh0: adrp x8, _CCI_PMU_CNTR_CTRL@GOTPAGE Lloh1: ldr x8, [x8, _CCI_PMU_CNTR_CTRL@GOTPAGEOFF] Lloh2: ldr w3, [x8] mov w1, #0 b _pmu_write_register .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _CCI_PMU_CNTR_CTRL,4,2 ; @CCI_PMU_CNTR_CTRL .no_dead_strip _pmu_disable_counter .subsections_via_symbols
AnghaBench/linux/drivers/perf/extr_arm-cci.c_pmu_disable_counter.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ## -- Begin function main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx subq $1040, %rsp ## imm = 0x410 .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -40(%rbp) callq _fork movl %eax, %r15d testl %eax, %eax je LBB0_9 ## %bb.1: cmpl $-1, %r15d je LBB0_2 ## %bb.4: callq _setsid cmpl $-1, %eax je LBB0_5 ## %bb.6: leaq L_.str.2(%rip), %rdi callq _chdir callq _getpid movl %eax, %ebx movl %eax, %edi callq _getpgid movl %eax, %r14d movl %ebx, %edi callq _getsid movl %eax, %r12d leaq L_.str.3(%rip), %rdi xorl %r15d, %r15d movl %ebx, %esi xorl %eax, %eax callq _printf callq _getppid leaq L_.str.4(%rip), %rdi movl %eax, %esi xorl %eax, %eax callq _printf leaq L_.str.5(%rip), %rdi movl %r12d, %esi xorl %eax, %eax callq _printf leaq L_.str.6(%rip), %rdi movl %r14d, %esi xorl %eax, %eax callq _printf leaq -1072(%rbp), %rdi movl $1024, %esi ## imm = 0x400 callq _getcwd testq %rax, %rax je LBB0_7 ## %bb.8: leaq L_.str.8(%rip), %rdi leaq -1072(%rbp), %rsi xorl %eax, %eax callq _printf LBB0_9: movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -40(%rbp), %rax jne LBB0_11 ## %bb.10: movl %r15d, %eax addq $1040, %rsp ## imm = 0x410 popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq LBB0_2: leaq L_.str(%rip), %rdi jmp LBB0_3 LBB0_5: leaq L_.str.1(%rip), %rdi jmp LBB0_3 LBB0_7: leaq L_.str.7(%rip), %rdi LBB0_3: callq _perror movl $-1, %r15d jmp LBB0_9 LBB0_11: callq ___stack_chk_fail .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Error while executing fork" L_.str.1: ## @.str.1 .asciz "Error while executing setsid" L_.str.2: ## @.str.2 .asciz "/tmp" L_.str.3: ## @.str.3 .asciz "PID: %d\n" L_.str.4: ## @.str.4 .asciz "PPID: %d\n" L_.str.5: ## @.str.5 .asciz "SID: %d\n" L_.str.6: ## @.str.6 .asciz "PGID: %d\n" L_.str.7: ## @.str.7 .asciz "Error while executing getcwd" L_.str.8: ## @.str.8 .asciz "Current directory: %s\n" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 sub sp, sp, #1040 Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] stur x8, [x29, #-40] bl _fork cbz w0, LBB0_5 ; %bb.1: cmn w0, #1 b.eq LBB0_7 ; %bb.2: bl _setsid cmn w0, #1 b.eq LBB0_8 ; %bb.3: Lloh3: adrp x0, l_.str.2@PAGE Lloh4: add x0, x0, l_.str.2@PAGEOFF bl _chdir bl _getpid mov x19, x0 bl _getpgid mov x20, x0 mov x0, x19 bl _getsid mov x21, x0 str x19, [sp] Lloh5: adrp x0, l_.str.3@PAGE Lloh6: add x0, x0, l_.str.3@PAGEOFF bl _printf bl _getppid ; kill: def $w0 killed $w0 def $x0 str x0, [sp] Lloh7: adrp x0, l_.str.4@PAGE Lloh8: add x0, x0, l_.str.4@PAGEOFF bl _printf str x21, [sp] Lloh9: adrp x0, l_.str.5@PAGE Lloh10: add x0, x0, l_.str.5@PAGEOFF bl _printf str x20, [sp] Lloh11: adrp x0, l_.str.6@PAGE Lloh12: add x0, x0, l_.str.6@PAGEOFF bl _printf add x19, sp, #8 add x0, sp, #8 mov w1, #1024 bl _getcwd cbz x0, LBB0_9 ; %bb.4: str x19, [sp] Lloh13: adrp x0, l_.str.8@PAGE Lloh14: add x0, x0, l_.str.8@PAGEOFF bl _printf mov w0, #0 LBB0_5: ldur x8, [x29, #-40] Lloh15: adrp x9, ___stack_chk_guard@GOTPAGE Lloh16: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh17: ldr x9, [x9] cmp x9, x8 b.ne LBB0_11 ; %bb.6: add sp, sp, #1040 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret LBB0_7: Lloh18: adrp x0, l_.str@PAGE Lloh19: add x0, x0, l_.str@PAGEOFF b LBB0_10 LBB0_8: Lloh20: adrp x0, l_.str.1@PAGE Lloh21: add x0, x0, l_.str.1@PAGEOFF b LBB0_10 LBB0_9: Lloh22: adrp x0, l_.str.7@PAGE Lloh23: add x0, x0, l_.str.7@PAGEOFF LBB0_10: bl _perror mov w0, #-1 b LBB0_5 LBB0_11: bl ___stack_chk_fail .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpAdd Lloh11, Lloh12 .loh AdrpAdd Lloh9, Lloh10 .loh AdrpAdd Lloh7, Lloh8 .loh AdrpAdd Lloh5, Lloh6 .loh AdrpAdd Lloh3, Lloh4 .loh AdrpAdd Lloh13, Lloh14 .loh AdrpLdrGotLdr Lloh15, Lloh16, Lloh17 .loh AdrpAdd Lloh18, Lloh19 .loh AdrpAdd Lloh20, Lloh21 .loh AdrpAdd Lloh22, Lloh23 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Error while executing fork" l_.str.1: ; @.str.1 .asciz "Error while executing setsid" l_.str.2: ; @.str.2 .asciz "/tmp" l_.str.3: ; @.str.3 .asciz "PID: %d\n" l_.str.4: ; @.str.4 .asciz "PPID: %d\n" l_.str.5: ; @.str.5 .asciz "SID: %d\n" l_.str.6: ; @.str.6 .asciz "PGID: %d\n" l_.str.7: ; @.str.7 .asciz "Error while executing getcwd" l_.str.8: ; @.str.8 .asciz "Current directory: %s\n" .subsections_via_symbols
the_stack_data/894395.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function u132_ring_queue_work _u132_ring_queue_work: ## @u132_ring_queue_work .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %edx, %r14d movq %rsi, %r15 movq %rdi, %rbx callq _kref_get movq %rbx, %rdi movq %r15, %rsi movl %r14d, %edx addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp jmp _u132_ring_requeue_work ## TAILCALL .cfi_endproc ## -- End function .no_dead_strip _u132_ring_queue_work .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function u132_ring_queue_work _u132_ring_queue_work: ; @u132_ring_queue_work .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x2 mov x20, x1 mov x21, x0 bl _kref_get mov x0, x21 mov x1, x20 mov x2, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b _u132_ring_requeue_work .cfi_endproc ; -- End function .no_dead_strip _u132_ring_queue_work .subsections_via_symbols
AnghaBench/linux/drivers/usb/host/extr_u132-hcd.c_u132_ring_queue_work.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _write_seek ## -- Begin function write_seek .p2align 4, 0x90 _write_seek: ## @write_seek .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 movq %rdi, %rbx xorl %eax, %eax callq _flushout movq _newidx_fd@GOTPCREL(%rip), %rax movl (%rax), %edi movq _SEEK_SET@GOTPCREL(%rip), %rax movl (%rax), %edx movq %rbx, %rsi callq _lseek xorl %edi, %edi cmpq %rbx, %rax sete %dil callq _assert movq _write_pos@GOTPCREL(%rip), %rax movq %rbx, (%rax) addq $8, %rsp popq %rbx popq %rbp retq .cfi_endproc ## -- End function .comm _newidx_fd,4,2 ## @newidx_fd .comm _SEEK_SET,4,2 ## @SEEK_SET .comm _write_pos,8,3 ## @write_pos .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _write_seek ; -- Begin function write_seek .p2align 2 _write_seek: ; @write_seek .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x0 bl _flushout Lloh0: adrp x8, _newidx_fd@GOTPAGE Lloh1: ldr x8, [x8, _newidx_fd@GOTPAGEOFF] Lloh2: ldr w0, [x8] Lloh3: adrp x8, _SEEK_SET@GOTPAGE Lloh4: ldr x8, [x8, _SEEK_SET@GOTPAGEOFF] Lloh5: ldr w2, [x8] mov x1, x19 bl _lseek cmp x0, x19 cset w0, eq bl _assert Lloh6: adrp x8, _write_pos@GOTPAGE Lloh7: ldr x8, [x8, _write_pos@GOTPAGEOFF] Lloh8: str x19, [x8] ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpLdrGotStr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _newidx_fd,4,2 ; @newidx_fd .comm _SEEK_SET,4,2 ; @SEEK_SET .comm _write_pos,8,3 ; @write_pos .subsections_via_symbols
AnghaBench/kphp-kdb/statsx/extr_statsx-data.c_write_seek.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _csum8_get ## -- Begin function csum8_get .p2align 4, 0x90 _csum8_get: ## @csum8_get .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax subl (%rdi), %eax popq %rbp retq .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _csum8_get ; -- Begin function csum8_get .p2align 2 _csum8_get: ; @csum8_get .cfi_startproc ; %bb.0: ldr w8, [x0] neg w0, w8 ret .cfi_endproc ; -- End function .subsections_via_symbols
AnghaBench/lede/tools/firmware-utils/src/extr_mkcasfw.c_csum8_get.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function eth_rx_mode _eth_rx_mode: ## @eth_rx_mode .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdi, %r14 callq _netdev_priv movq %rax, %rbx movq 8(%rax), %r15 movq (%r15), %rdi callq ___raw_readl movq _IFF_PROMISC@GOTPCREL(%rip), %rcx movl (%rcx), %edx movl (%rbx), %ecx testl %edx, (%r14) je LBB0_5 ## %bb.1: cmpl $3, %ecx jne LBB0_4 ## %bb.2: movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx movb (%rcx), %cl movl $4, %edi jmp LBB0_3 LBB0_5: cmpl $3, %ecx jne LBB0_7 ## %bb.6: movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx movb (%rcx), %cl movl $4, %edx jmp LBB0_8 LBB0_4: movl $1, %edi ## kill: def $cl killed $cl killed $ecx shll %cl, %edi movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx movb (%rcx), %cl LBB0_3: shll %cl, %edi orl %eax, %edi jmp LBB0_9 LBB0_7: movl $1, %edx ## kill: def $cl killed $cl killed $ecx shll %cl, %edx movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx movb (%rcx), %cl LBB0_8: shll %cl, %edx notl %edx andl %edx, %eax movl %eax, %edi LBB0_9: movq (%r15), %rsi addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp jmp ___raw_writel ## TAILCALL .cfi_endproc ## -- End function .comm _IFF_PROMISC,4,2 ## @IFF_PROMISC .comm _PROMISC_OFFSET,4,2 ## @PROMISC_OFFSET .no_dead_strip _eth_rx_mode .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function eth_rx_mode _eth_rx_mode: ; @eth_rx_mode .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x0 bl _netdev_priv mov x20, x0 ldr x21, [x0, #8] ldr x0, [x21] bl ___raw_readl ldr w9, [x19] Lloh0: adrp x8, _IFF_PROMISC@GOTPAGE Lloh1: ldr x8, [x8, _IFF_PROMISC@GOTPAGEOFF] Lloh2: ldr w10, [x8] ldr w8, [x20] tst w10, w9 b.eq LBB0_3 ; %bb.1: cmp w8, #3 b.ne LBB0_5 ; %bb.2: Lloh3: adrp x8, _PROMISC_OFFSET@GOTPAGE Lloh4: ldr x8, [x8, _PROMISC_OFFSET@GOTPAGEOFF] Lloh5: ldr w8, [x8] mov w9, #4 lsl w8, w9, w8 orr w0, w8, w0 b LBB0_8 LBB0_3: cmp w8, #3 b.ne LBB0_6 ; %bb.4: Lloh6: adrp x8, _PROMISC_OFFSET@GOTPAGE Lloh7: ldr x8, [x8, _PROMISC_OFFSET@GOTPAGEOFF] Lloh8: ldr w8, [x8] mov w9, #4 lsl w8, w9, w8 b LBB0_7 LBB0_5: mov w9, #1 lsl w8, w9, w8 Lloh9: adrp x9, _PROMISC_OFFSET@GOTPAGE Lloh10: ldr x9, [x9, _PROMISC_OFFSET@GOTPAGEOFF] Lloh11: ldr w9, [x9] lsl w8, w8, w9 orr w0, w8, w0 b LBB0_8 LBB0_6: mov w9, #1 lsl w8, w9, w8 Lloh12: adrp x9, _PROMISC_OFFSET@GOTPAGE Lloh13: ldr x9, [x9, _PROMISC_OFFSET@GOTPAGEOFF] Lloh14: ldr w9, [x9] lsl w8, w8, w9 LBB0_7: bic w0, w0, w8 LBB0_8: ldr x1, [x21] ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b ___raw_writel .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14 .cfi_endproc ; -- End function .comm _IFF_PROMISC,4,2 ; @IFF_PROMISC .comm _PROMISC_OFFSET,4,2 ; @PROMISC_OFFSET .no_dead_strip _eth_rx_mode .subsections_via_symbols
AnghaBench/lede/target/linux/cns3xxx/files/drivers/net/ethernet/cavium/extr_cns3xxx_eth.c_eth_rx_mode.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _reach_error ## -- Begin function reach_error .p2align 4, 0x90 _reach_error: ## @reach_error .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp popq %rbp retq .cfi_endproc ## -- End function .globl _assume_abort_if_not ## -- Begin function assume_abort_if_not .p2align 4, 0x90 _assume_abort_if_not: ## @assume_abort_if_not .cfi_startproc ## %bb.0: testl %edi, %edi je LBB1_2 ## %bb.1: retq LBB1_2: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp callq _abort .cfi_endproc ## -- End function .globl _main ## -- Begin function main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax callq ___VERIFIER_nondet_int ## kill: def $eax killed $eax def $rax testl %eax, %eax jle LBB2_13 ## %bb.1: cmpl $1, %eax je LBB2_13 ## %bb.2: cmpl $3, %eax jb LBB2_13 ## %bb.3: je LBB2_13 ## %bb.4: cmpl $5, %eax jb LBB2_13 ## %bb.5: leal -1(%rax), %ecx movl $4, %edx movl $7, %esi LBB2_6: ## =>This Loop Header: Depth=1 ## Child Loop BB2_7 Depth 2 incl %esi .p2align 4, 0x90 LBB2_7: ## Parent Loop BB2_6 Depth=1 ## => This Inner Loop Header: Depth=2 cmpl $7, %esi jle LBB2_8 ## %bb.11: ## in Loop: Header=BB2_7 Depth=2 incl %edx xorl %esi, %esi cmpl %eax, %edx jl LBB2_7 jmp LBB2_12 LBB2_8: ## in Loop: Header=BB2_6 Depth=1 cmpl %edx, %eax jle LBB2_10 ## %bb.9: ## in Loop: Header=BB2_6 Depth=1 movl %ecx, %edi subl %edx, %edi cmpl %eax, %edi jl LBB2_6 LBB2_10: callq _abort LBB2_13: movq ___return_main@GOTPCREL(%rip), %rax movl (%rax), %eax popq %rbp retq LBB2_12: movq ___return_1135@GOTPCREL(%rip), %rax movl $0, (%rax) xorl %eax, %eax popq %rbp retq .cfi_endproc ## -- End function .comm ___return_main,4,2 ## @__return_main .comm ___return_1135,4,2 ## @__return_1135 .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _reach_error ; -- Begin function reach_error .p2align 2 _reach_error: ; @reach_error .cfi_startproc ; %bb.0: ret .cfi_endproc ; -- End function .globl _assume_abort_if_not ; -- Begin function assume_abort_if_not .p2align 2 _assume_abort_if_not: ; @assume_abort_if_not .cfi_startproc ; %bb.0: cbz w0, LBB1_2 ; %bb.1: ret LBB1_2: stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill .cfi_def_cfa_offset 16 mov x29, sp .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 bl _abort .cfi_endproc ; -- End function .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill .cfi_def_cfa_offset 16 mov x29, sp .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 bl ___VERIFIER_nondet_int subs w8, w0, #1 b.lt LBB2_12 ; %bb.1: b.eq LBB2_12 ; %bb.2: cmp w0, #3 b.lo LBB2_12 ; %bb.3: b.eq LBB2_12 ; %bb.4: cmp w0, #5 b.lo LBB2_12 ; %bb.5: mov w9, #4 mov w10, #7 LBB2_6: ; =>This Loop Header: Depth=1 ; Child Loop BB2_7 Depth 2 add w10, w10, #1 LBB2_7: ; Parent Loop BB2_6 Depth=1 ; => This Inner Loop Header: Depth=2 cmp w10, #7 b.le LBB2_9 ; %bb.8: ; in Loop: Header=BB2_7 Depth=2 mov w10, #0 add w9, w9, #1 cmp w9, w0 b.lt LBB2_7 b LBB2_13 LBB2_9: ; in Loop: Header=BB2_6 Depth=1 cmp w0, w9 b.le LBB2_11 ; %bb.10: ; in Loop: Header=BB2_6 Depth=1 sub w11, w8, w9 cmp w11, w0 b.lt LBB2_6 LBB2_11: bl _abort LBB2_12: Lloh0: adrp x8, ___return_main@GOTPAGE Lloh1: ldr x8, [x8, ___return_main@GOTPAGEOFF] Lloh2: ldr w0, [x8] ldp x29, x30, [sp], #16 ; 16-byte Folded Reload ret LBB2_13: mov w0, #0 Lloh3: adrp x8, ___return_1135@GOTPAGE Lloh4: ldr x8, [x8, ___return_1135@GOTPAGEOFF] Lloh5: str wzr, [x8] ldp x29, x30, [sp], #16 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotStr Lloh3, Lloh4, Lloh5 .cfi_endproc ; -- End function .comm ___return_main,4,2 ; @__return_main .comm ___return_1135,4,2 ; @__return_1135 .subsections_via_symbols
the_stack_data/178265070.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function dlcNew _dlcNew: ## @dlcNew .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %esi, %r15d movl %edi, %r14d movl $12, %edi callq _sqlite3_malloc movq %rax, %rbx leaq 8(%rax), %r12 movq %r12, %rdi xorl %esi, %esi callq _dataBufferInit movq %rbx, %rdi movl %r15d, %esi movq %r12, %rdx callq _dlwInit leaq 4(%rbx), %rdi movq %rbx, %rsi movl %r14d, %edx callq _plwInit movq %rbx, %rax popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .no_dead_strip _dlcNew .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function dlcNew _dlcNew: ; @dlcNew .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x1 mov x20, x0 mov w0, #12 bl _sqlite3_malloc mov x21, x0 add x22, x0, #8 mov x0, x22 mov w1, #0 bl _dataBufferInit mov x0, x21 mov x1, x19 mov x2, x22 bl _dlwInit add x0, x21, #4 mov x1, x21 mov x2, x20 bl _plwInit mov x0, x21 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .cfi_endproc ; -- End function .no_dead_strip _dlcNew .subsections_via_symbols
AnghaBench/sqlcipher/ext/fts2/extr_fts2.c_dlcNew.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _mp_int_divisible_value ## -- Begin function mp_int_divisible_value .p2align 4, 0x90 _mp_int_divisible_value: ## @mp_int_divisible_value .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp subq $16, %rsp movq $0, -8(%rbp) leaq -8(%rbp), %rcx xorl %edx, %edx callq _mp_int_div_value movq _MP_OK@GOTPCREL(%rip), %rcx xorq (%rcx), %rax xorl %ecx, %ecx orq -8(%rbp), %rax sete %cl movl %ecx, %eax addq $16, %rsp popq %rbp retq .cfi_endproc ## -- End function .comm _MP_OK,8,3 ## @MP_OK .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _mp_int_divisible_value ; -- Begin function mp_int_divisible_value .p2align 2 _mp_int_divisible_value: ; @mp_int_divisible_value .cfi_startproc ; %bb.0: sub sp, sp, #32 .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 str xzr, [sp, #8] add x3, sp, #8 mov x2, #0 bl _mp_int_div_value Lloh0: adrp x8, _MP_OK@GOTPAGE Lloh1: ldr x8, [x8, _MP_OK@GOTPAGEOFF] Lloh2: ldr x8, [x8] cmp x0, x8 ldr x8, [sp, #8] ccmp x8, #0, #0, eq cset w0, eq ldp x29, x30, [sp, #16] ; 16-byte Folded Reload add sp, sp, #32 ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _MP_OK,8,3 ; @MP_OK .subsections_via_symbols
AnghaBench/postgres/contrib/pgcrypto/extr_imath.c_mp_int_divisible_value.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function m68k_op_or_32_er_pi _m68k_op_or_32_er_pi: ## @m68k_op_or_32_er_pi .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 xorl %eax, %eax callq _OPER_AY_PI_32 movl %eax, %ebx movq _DX@GOTPCREL(%rip), %rax orl (%rax), %ebx movl %ebx, (%rax) movl %ebx, %edi callq _NFLAG_32 movq _FLAG_N@GOTPCREL(%rip), %rcx movl %eax, (%rcx) movq _FLAG_Z@GOTPCREL(%rip), %rax movl %ebx, (%rax) movq _CFLAG_CLEAR@GOTPCREL(%rip), %rax movl (%rax), %eax movq _FLAG_C@GOTPCREL(%rip), %rcx movl %eax, (%rcx) movq _VFLAG_CLEAR@GOTPCREL(%rip), %rax movl (%rax), %eax movq _FLAG_V@GOTPCREL(%rip), %rcx movl %eax, (%rcx) addq $8, %rsp popq %rbx popq %rbp retq .cfi_endproc ## -- End function .comm _DX,4,2 ## @DX .comm _FLAG_N,4,2 ## @FLAG_N .comm _FLAG_Z,4,2 ## @FLAG_Z .comm _CFLAG_CLEAR,4,2 ## @CFLAG_CLEAR .comm _FLAG_C,4,2 ## @FLAG_C .comm _VFLAG_CLEAR,4,2 ## @VFLAG_CLEAR .comm _FLAG_V,4,2 ## @FLAG_V .no_dead_strip _m68k_op_or_32_er_pi .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function m68k_op_or_32_er_pi _m68k_op_or_32_er_pi: ; @m68k_op_or_32_er_pi .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 bl _OPER_AY_PI_32 Lloh0: adrp x8, _DX@GOTPAGE Lloh1: ldr x8, [x8, _DX@GOTPAGEOFF] ldr w9, [x8] orr w19, w9, w0 str w19, [x8] mov x0, x19 bl _NFLAG_32 Lloh2: adrp x8, _FLAG_N@GOTPAGE Lloh3: ldr x8, [x8, _FLAG_N@GOTPAGEOFF] Lloh4: str w0, [x8] Lloh5: adrp x8, _FLAG_Z@GOTPAGE Lloh6: ldr x8, [x8, _FLAG_Z@GOTPAGEOFF] Lloh7: str w19, [x8] Lloh8: adrp x8, _CFLAG_CLEAR@GOTPAGE Lloh9: ldr x8, [x8, _CFLAG_CLEAR@GOTPAGEOFF] Lloh10: ldr w8, [x8] Lloh11: adrp x9, _FLAG_C@GOTPAGE Lloh12: ldr x9, [x9, _FLAG_C@GOTPAGEOFF] Lloh13: str w8, [x9] Lloh14: adrp x8, _VFLAG_CLEAR@GOTPAGE Lloh15: ldr x8, [x8, _VFLAG_CLEAR@GOTPAGEOFF] Lloh16: ldr w8, [x8] Lloh17: adrp x9, _FLAG_V@GOTPAGE Lloh18: ldr x9, [x9, _FLAG_V@GOTPAGEOFF] Lloh19: str w8, [x9] ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpLdrGotStr Lloh17, Lloh18, Lloh19 .loh AdrpLdrGotLdr Lloh14, Lloh15, Lloh16 .loh AdrpLdrGotStr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10 .loh AdrpLdrGotStr Lloh5, Lloh6, Lloh7 .loh AdrpLdrGotStr Lloh2, Lloh3, Lloh4 .loh AdrpLdrGot Lloh0, Lloh1 .cfi_endproc ; -- End function .comm _DX,4,2 ; @DX .comm _FLAG_N,4,2 ; @FLAG_N .comm _FLAG_Z,4,2 ; @FLAG_Z .comm _CFLAG_CLEAR,4,2 ; @CFLAG_CLEAR .comm _FLAG_C,4,2 ; @FLAG_C .comm _VFLAG_CLEAR,4,2 ; @VFLAG_CLEAR .comm _FLAG_V,4,2 ; @FLAG_V .no_dead_strip _m68k_op_or_32_er_pi .subsections_via_symbols
AnghaBench/Provenance/Cores/Genesis-Plus-GX/PVGenesis/Genesis/GenesisCore/genplusgx_source/m68k/extr_m68kops.h_m68k_op_or_32_er_pi.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _ib_process_rmpp_recv_wc ## -- Begin function ib_process_rmpp_recv_wc .p2align 4, 0x90 _ib_process_rmpp_recv_wc: ## @ib_process_rmpp_recv_wc .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rsi, %rbx movq (%rsi), %rax movq _IB_MGMT_RMPP_FLAG_ACTIVE@GOTPCREL(%rip), %rcx movl (%rcx), %ecx testl %ecx, (%rax) je LBB0_12 ## %bb.1: movq %rdi, %r14 movq 8(%rax), %rcx movq _IB_MGMT_RMPP_VERSION@GOTPCREL(%rip), %rdx cmpq (%rdx), %rcx jne LBB0_2 ## %bb.3: movl 16(%rax), %eax addl $-128, %eax cmpl $3, %eax ja LBB0_9 ## %bb.4: leaq LJTI0_0(%rip), %rcx movslq (%rcx,%rax,4), %rax addq %rcx, %rax jmpq *%rax LBB0_7: movq %r14, %rdi movq %rbx, %rsi callq _process_rmpp_stop jmp LBB0_11 LBB0_2: movq _IB_MGMT_RMPP_STATUS_UNV@GOTPCREL(%rip), %r15 LBB0_10: movl (%r15), %edx movq %r14, %rdi movq %rbx, %rsi callq _abort_send movl (%r15), %edx movq %r14, %rdi movq %rbx, %rsi callq _nack_recv LBB0_11: movq %rbx, %rdi callq _ib_free_recv_mad xorl %ebx, %ebx LBB0_12: movq %rbx, %rax addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq LBB0_9: movq _IB_MGMT_RMPP_STATUS_BADT@GOTPCREL(%rip), %r15 jmp LBB0_10 LBB0_5: movq %r14, %rdi movq %rbx, %rsi addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp jmp _process_rmpp_data ## TAILCALL LBB0_6: movq %r14, %rdi movq %rbx, %rsi callq _process_rmpp_ack jmp LBB0_11 LBB0_8: movq %r14, %rdi movq %rbx, %rsi callq _process_rmpp_abort jmp LBB0_11 .cfi_endproc .p2align 2, 0x90 .data_region jt32 .set L0_0_set_7, LBB0_7-LJTI0_0 .set L0_0_set_5, LBB0_5-LJTI0_0 .set L0_0_set_6, LBB0_6-LJTI0_0 .set L0_0_set_8, LBB0_8-LJTI0_0 LJTI0_0: .long L0_0_set_7 .long L0_0_set_5 .long L0_0_set_6 .long L0_0_set_8 .end_data_region ## -- End function .comm _IB_MGMT_RMPP_FLAG_ACTIVE,4,2 ## @IB_MGMT_RMPP_FLAG_ACTIVE .comm _IB_MGMT_RMPP_VERSION,8,3 ## @IB_MGMT_RMPP_VERSION .comm _IB_MGMT_RMPP_STATUS_UNV,4,2 ## @IB_MGMT_RMPP_STATUS_UNV .comm _IB_MGMT_RMPP_STATUS_BADT,4,2 ## @IB_MGMT_RMPP_STATUS_BADT .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _ib_process_rmpp_recv_wc ; -- Begin function ib_process_rmpp_recv_wc .p2align 2 _ib_process_rmpp_recv_wc: ; @ib_process_rmpp_recv_wc .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x1 ldr x8, [x1] ldr w9, [x8] Lloh0: adrp x10, _IB_MGMT_RMPP_FLAG_ACTIVE@GOTPAGE Lloh1: ldr x10, [x10, _IB_MGMT_RMPP_FLAG_ACTIVE@GOTPAGEOFF] Lloh2: ldr w10, [x10] tst w10, w9 b.eq LBB0_8 ; %bb.1: mov x20, x0 ldr x9, [x8, #8] Lloh3: adrp x10, _IB_MGMT_RMPP_VERSION@GOTPAGE Lloh4: ldr x10, [x10, _IB_MGMT_RMPP_VERSION@GOTPAGEOFF] Lloh5: ldr x10, [x10] cmp x9, x10 b.ne LBB0_5 ; %bb.2: ldr w8, [x8, #16] sub w8, w8, #128 cmp w8, #3 b.hi LBB0_9 ; %bb.3: Lloh6: adrp x9, lJTI0_0@PAGE Lloh7: add x9, x9, lJTI0_0@PAGEOFF adr x10, LBB0_4 ldrb w11, [x9, x8] add x10, x10, x11, lsl #2 br x10 LBB0_4: mov x0, x20 mov x1, x19 bl _process_rmpp_stop b LBB0_7 LBB0_5: Lloh8: adrp x21, _IB_MGMT_RMPP_STATUS_UNV@GOTPAGE Lloh9: ldr x21, [x21, _IB_MGMT_RMPP_STATUS_UNV@GOTPAGEOFF] LBB0_6: ldr w2, [x21] mov x0, x20 mov x1, x19 bl _abort_send ldr w2, [x21] mov x0, x20 mov x1, x19 bl _nack_recv LBB0_7: mov x0, x19 bl _ib_free_recv_mad mov x19, #0 LBB0_8: mov x0, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret LBB0_9: Lloh10: adrp x21, _IB_MGMT_RMPP_STATUS_BADT@GOTPAGE Lloh11: ldr x21, [x21, _IB_MGMT_RMPP_STATUS_BADT@GOTPAGEOFF] b LBB0_6 LBB0_10: mov x0, x20 mov x1, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b _process_rmpp_data LBB0_11: mov x0, x20 mov x1, x19 bl _process_rmpp_ack b LBB0_7 LBB0_12: mov x0, x20 mov x1, x19 bl _process_rmpp_abort b LBB0_7 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpAdd Lloh6, Lloh7 .loh AdrpLdrGot Lloh8, Lloh9 .loh AdrpLdrGot Lloh10, Lloh11 .cfi_endproc .section __TEXT,__const lJTI0_0: .byte (LBB0_4-LBB0_4)>>2 .byte (LBB0_10-LBB0_4)>>2 .byte (LBB0_11-LBB0_4)>>2 .byte (LBB0_12-LBB0_4)>>2 ; -- End function .comm _IB_MGMT_RMPP_FLAG_ACTIVE,4,2 ; @IB_MGMT_RMPP_FLAG_ACTIVE .comm _IB_MGMT_RMPP_VERSION,8,3 ; @IB_MGMT_RMPP_VERSION .comm _IB_MGMT_RMPP_STATUS_UNV,4,2 ; @IB_MGMT_RMPP_STATUS_UNV .comm _IB_MGMT_RMPP_STATUS_BADT,4,2 ; @IB_MGMT_RMPP_STATUS_BADT .subsections_via_symbols
AnghaBench/freebsd/sys/ofed/drivers/infiniband/core/extr_ib_mad_rmpp.c_ib_process_rmpp_recv_wc.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _rtw_ips_pwr_down ## -- Begin function rtw_ips_pwr_down .p2align 4, 0x90 _rtw_ips_pwr_down: ## @rtw_ips_pwr_down .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 movq %rdi, %rbx leaq L_.str(%rip), %rdi callq _DBG_871X movabsq $4294967297, %rax ## imm = 0x100000001 movq %rax, (%rbx) movq %rbx, %rdi callq _rtw_ips_dev_unload movl $0, (%rbx) leaq L_.str.1(%rip), %rdi addq $8, %rsp popq %rbx popq %rbp jmp _DBG_871X ## TAILCALL .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "===> rtw_ips_pwr_down...................\n" L_.str.1: ## @.str.1 .asciz "<=== rtw_ips_pwr_down.....................\n" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _rtw_ips_pwr_down ; -- Begin function rtw_ips_pwr_down .p2align 2 _rtw_ips_pwr_down: ; @rtw_ips_pwr_down .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x0 Lloh0: adrp x0, l_.str@PAGE Lloh1: add x0, x0, l_.str@PAGEOFF bl _DBG_871X movi.2s v0, #1 str d0, [x19] mov x0, x19 bl _rtw_ips_dev_unload str wzr, [x19] Lloh2: adrp x0, l_.str.1@PAGE Lloh3: add x0, x0, l_.str.1@PAGEOFF ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _DBG_871X .loh AdrpAdd Lloh2, Lloh3 .loh AdrpAdd Lloh0, Lloh1 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "===> rtw_ips_pwr_down...................\n" l_.str.1: ; @.str.1 .asciz "<=== rtw_ips_pwr_down.....................\n" .subsections_via_symbols
AnghaBench/linux/drivers/staging/rtl8723bs/os_dep/extr_os_intfs.c_rtw_ips_pwr_down.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function eg_cache_remove_entry _eg_cache_remove_entry: ## @eg_cache_remove_entry .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rsi, %r15 movq %rdi, %rbx movq 16(%rdi), %r14 leaq L_.str(%rip), %rdi callq _dprintk movq (%rbx), %rax movq 8(%rbx), %rcx leaq 8(%r15), %r12 testq %rax, %rax movq %rax, %rdx cmoveq %r12, %rdx movq %rcx, (%rdx) testq %rcx, %rcx je LBB0_2 ## %bb.1: movq %rax, (%rcx) LBB0_2: movq 24(%r15), %rax movq %rbx, %rdi callq *(%rax) cmpq $0, 16(%r15) jne LBB0_5 ## %bb.3: cmpq $0, (%r12) jne LBB0_5 ## %bb.4: movq _STOP_KEEP_ALIVE_SM@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, -40(%rbp) leaq -40(%rbp), %rdi movq %r15, %rsi callq _msg_to_mpoad LBB0_5: testq %r14, %r14 je LBB0_9 ## %bb.6: movq (%r15), %rax movq %r14, %rdi movq %r15, %rsi callq *8(%rax) testq %rax, %rax je LBB0_8 ## %bb.7: movq (%r15), %rcx movq %rax, %rdi callq *(%rcx) jmp LBB0_9 LBB0_8: movq _EPIPE@GOTPCREL(%rip), %rax xorl %esi, %esi subl (%rax), %esi movq %r14, %rdi callq _vcc_release_async LBB0_9: addq $16, %rsp popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "removing an egress entry.\n" .comm _STOP_KEEP_ALIVE_SM,4,2 ## @STOP_KEEP_ALIVE_SM .comm _EPIPE,4,2 ## @EPIPE .no_dead_strip _eg_cache_remove_entry .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function eg_cache_remove_entry _eg_cache_remove_entry: ; @eg_cache_remove_entry .cfi_startproc ; %bb.0: sub sp, sp, #64 .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x20, x1 mov x21, x0 ldr x19, [x0, #16] Lloh0: adrp x0, l_.str@PAGE Lloh1: add x0, x0, l_.str@PAGEOFF bl _dprintk ldp x8, x9, [x21] add x22, x20, #8 cmp x8, #0 csel x10, x22, x8, eq str x9, [x10] cbz x9, LBB0_2 ; %bb.1: str x8, [x9] LBB0_2: ldr x8, [x20, #24] ldr x8, [x8] mov x0, x21 blr x8 ldr x8, [x20, #16] cbnz x8, LBB0_5 ; %bb.3: ldr x8, [x22] cbnz x8, LBB0_5 ; %bb.4: Lloh2: adrp x8, _STOP_KEEP_ALIVE_SM@GOTPAGE Lloh3: ldr x8, [x8, _STOP_KEEP_ALIVE_SM@GOTPAGEOFF] Lloh4: ldr w8, [x8] str w8, [sp, #8] add x0, sp, #8 mov x1, x20 bl _msg_to_mpoad LBB0_5: cbz x19, LBB0_9 ; %bb.6: ldr x8, [x20] ldr x8, [x8, #8] mov x0, x19 mov x1, x20 blr x8 cbz x0, LBB0_8 ; %bb.7: ldr x8, [x20] ldr x8, [x8] blr x8 b LBB0_9 LBB0_8: Lloh5: adrp x8, _EPIPE@GOTPAGE Lloh6: ldr x8, [x8, _EPIPE@GOTPAGEOFF] Lloh7: ldr w8, [x8] neg w1, w8 mov x0, x19 bl _vcc_release_async LBB0_9: ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload add sp, sp, #64 ret .loh AdrpAdd Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "removing an egress entry.\n" .comm _STOP_KEEP_ALIVE_SM,4,2 ; @STOP_KEEP_ALIVE_SM .comm _EPIPE,4,2 ; @EPIPE .no_dead_strip _eg_cache_remove_entry .subsections_via_symbols
AnghaBench/linux/net/atm/extr_mpoa_caches.c_eg_cache_remove_entry.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function ath6kl_upload_board_file _ath6kl_upload_board_file: ## @ath6kl_upload_board_file .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdi, %r15 xorl %edi, %edi cmpq $0, 24(%r15) sete %dil callq _WARN_ON testq %rax, %rax je LBB0_3 ## %bb.1: movq _ENOENT@GOTPCREL(%rip), %rax LBB0_2: xorl %ebx, %ebx LBB0_28: subl (%rax), %ebx jmp LBB0_29 LBB0_3: movq 32(%r15), %rdx testq %rdx, %rdx je LBB0_7 ## %bb.4: movq %rdx, -40(%rbp) movq _hi_board_data@GOTPCREL(%rip), %rax movl (%rax), %esi movq %r15, %rdi callq _ath6kl_bmi_write_hi32 LBB0_5: movq _hi_board_ext_data@GOTPCREL(%rip), %rax movl (%rax), %esi leaq -48(%rbp), %rdx movq %r15, %rdi callq _ath6kl_bmi_read_hi32 testl %eax, %eax je LBB0_10 ## %bb.6: movl %eax, %ebx leaq L_.str.1(%rip), %rdi jmp LBB0_9 LBB0_7: movq _hi_board_data@GOTPCREL(%rip), %rax movl (%rax), %esi leaq -40(%rbp), %rdx movq %r15, %rdi callq _ath6kl_bmi_read_hi32 testl %eax, %eax je LBB0_5 ## %bb.8: movl %eax, %ebx leaq L_.str(%rip), %rdi LBB0_9: xorl %eax, %eax callq _ath6kl_err LBB0_29: movl %ebx, %eax addq $16, %rsp popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq LBB0_10: movl (%r15), %eax movq -48(%rbp), %rdx cmpl $129, %eax jne LBB0_13 ## %bb.11: testq %rdx, %rdx jne LBB0_13 ## %bb.12: leaq L_.str(%rip), %rdi xorl %ebx, %ebx xorl %eax, %eax callq _ath6kl_err jmp LBB0_27 LBB0_13: cmpl $128, %eax je LBB0_17 ## %bb.14: cmpl $129, %eax jne LBB0_23 ## %bb.15: movq _AR6003_BOARD_DATA_SZ@GOTPCREL(%rip), %rax movq (%rax), %r14 movq _AR6003_BOARD_EXT_DATA_SZ@GOTPCREL(%rip), %rax movq (%rax), %r12 leaq (%r12,%r14), %rax cmpq %rax, 8(%r15) jle LBB0_19 ## %bb.16: movq _AR6003_BOARD_EXT_DATA_SZ_V2@GOTPCREL(%rip), %rax jmp LBB0_18 LBB0_17: movq _AR6004_BOARD_DATA_SZ@GOTPCREL(%rip), %rax movq (%rax), %r14 movq _AR6004_BOARD_EXT_DATA_SZ@GOTPCREL(%rip), %rax LBB0_18: movq (%rax), %r12 LBB0_19: testq %rdx, %rdx je LBB0_25 ## %bb.20: leaq (%r12,%r14), %rax cmpq %rax, 8(%r15) jne LBB0_25 ## %bb.21: movq _ATH6KL_DBG_BOOT@GOTPCREL(%rip), %rax movl (%rax), %edi leaq L_.str.2(%rip), %rsi movq %r12, %rcx callq _ath6kl_dbg movq -48(%rbp), %rsi leaq (,%r14,4), %rdx addq 24(%r15), %rdx movq %r15, %rdi movq %r12, %rcx callq _ath6kl_bmi_write testl %eax, %eax je LBB0_24 ## %bb.22: movl %eax, %ebx leaq L_.str.3(%rip), %rdi jmp LBB0_32 LBB0_23: movl $1, %edi callq _WARN_ON movq _EINVAL@GOTPCREL(%rip), %rax jmp LBB0_2 LBB0_24: shlq $16, %r12 orq $1, %r12 movq _hi_board_ext_data_config@GOTPCREL(%rip), %rax movl (%rax), %esi movq %r15, %rdi movq %r12, %rdx callq _ath6kl_bmi_write_hi32 LBB0_25: movq 8(%r15), %rsi cmpq %r14, %rsi jge LBB0_30 ## %bb.26: leaq L_.str.4(%rip), %rdi xorl %ebx, %ebx xorl %eax, %eax callq _ath6kl_err LBB0_27: movq _EINVAL@GOTPCREL(%rip), %rax jmp LBB0_28 LBB0_30: movq _ATH6KL_DBG_BOOT@GOTPCREL(%rip), %rax movl (%rax), %edi movq -40(%rbp), %rdx leaq L_.str.5(%rip), %rsi movq %r14, %rcx callq _ath6kl_dbg movq -40(%rbp), %rsi movq 24(%r15), %rdx movq %r15, %rdi movq %r14, %rcx callq _ath6kl_bmi_write testl %eax, %eax je LBB0_33 ## %bb.31: movl %eax, %ebx leaq L_.str.6(%rip), %rdi LBB0_32: movl %ebx, %esi xorl %eax, %eax callq _ath6kl_err jmp LBB0_29 LBB0_33: movq 16(%r15), %rax movq _AR6004_HW_1_3_VERSION@GOTPCREL(%rip), %rcx movq _AR6004_HW_3_0_VERSION@GOTPCREL(%rip), %rdx cmpq (%rdx), %rax movl $1, %edx cmoveq %r14, %rdx cmpq (%rcx), %rax cmoveq %r14, %rdx movq _hi_board_data_initialized@GOTPCREL(%rip), %rax movl (%rax), %esi movq %r15, %rdi callq _ath6kl_bmi_write_hi32 xorl %ebx, %ebx jmp LBB0_29 .cfi_endproc ## -- End function .comm _ENOENT,4,2 ## @ENOENT .comm _hi_board_data,4,2 ## @hi_board_data .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Failed to get board file target address.\n" .comm _hi_board_ext_data,4,2 ## @hi_board_ext_data L_.str.1: ## @.str.1 .asciz "Failed to get extended board file target address.\n" .comm _EINVAL,4,2 ## @EINVAL .comm _AR6003_BOARD_DATA_SZ,8,3 ## @AR6003_BOARD_DATA_SZ .comm _AR6003_BOARD_EXT_DATA_SZ,8,3 ## @AR6003_BOARD_EXT_DATA_SZ .comm _AR6003_BOARD_EXT_DATA_SZ_V2,8,3 ## @AR6003_BOARD_EXT_DATA_SZ_V2 .comm _AR6004_BOARD_DATA_SZ,8,3 ## @AR6004_BOARD_DATA_SZ .comm _AR6004_BOARD_EXT_DATA_SZ,8,3 ## @AR6004_BOARD_EXT_DATA_SZ .comm _ATH6KL_DBG_BOOT,4,2 ## @ATH6KL_DBG_BOOT L_.str.2: ## @.str.2 .asciz "writing extended board data to 0x%x (%d B)\n" L_.str.3: ## @.str.3 .asciz "Failed to write extended board data: %d\n" .comm _hi_board_ext_data_config,4,2 ## @hi_board_ext_data_config L_.str.4: ## @.str.4 .asciz "Too small board file: %zu\n" L_.str.5: ## @.str.5 .asciz "writing board file to 0x%x (%d B)\n" L_.str.6: ## @.str.6 .asciz "Board file bmi write failed: %d\n" .comm _AR6004_HW_1_3_VERSION,8,3 ## @AR6004_HW_1_3_VERSION .comm _AR6004_HW_3_0_VERSION,8,3 ## @AR6004_HW_3_0_VERSION .comm _hi_board_data_initialized,4,2 ## @hi_board_data_initialized .no_dead_strip _ath6kl_upload_board_file .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function ath6kl_upload_board_file _ath6kl_upload_board_file: ; @ath6kl_upload_board_file .cfi_startproc ; %bb.0: sub sp, sp, #80 .cfi_def_cfa_offset 80 stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x0 ldr x8, [x0, #24] cmp x8, #0 cset w0, eq bl _WARN_ON cbz x0, LBB0_3 ; %bb.1: Lloh0: adrp x8, _ENOENT@GOTPAGE Lloh1: ldr x8, [x8, _ENOENT@GOTPAGEOFF] LBB0_2: ldr w8, [x8] neg w21, w8 b LBB0_10 LBB0_3: ldr x2, [x19, #32] cbz x2, LBB0_7 ; %bb.4: str x2, [sp, #24] Lloh2: adrp x8, _hi_board_data@GOTPAGE Lloh3: ldr x8, [x8, _hi_board_data@GOTPAGEOFF] Lloh4: ldr w1, [x8] mov x0, x19 bl _ath6kl_bmi_write_hi32 LBB0_5: Lloh5: adrp x8, _hi_board_ext_data@GOTPAGE Lloh6: ldr x8, [x8, _hi_board_ext_data@GOTPAGEOFF] Lloh7: ldr w1, [x8] add x2, sp, #16 mov x0, x19 bl _ath6kl_bmi_read_hi32 cbz w0, LBB0_11 ; %bb.6: mov x21, x0 Lloh8: adrp x0, l_.str.1@PAGE Lloh9: add x0, x0, l_.str.1@PAGEOFF b LBB0_9 LBB0_7: Lloh10: adrp x8, _hi_board_data@GOTPAGE Lloh11: ldr x8, [x8, _hi_board_data@GOTPAGEOFF] Lloh12: ldr w1, [x8] add x2, sp, #24 mov x0, x19 bl _ath6kl_bmi_read_hi32 cbz w0, LBB0_5 ; %bb.8: mov x21, x0 Lloh13: adrp x0, l_.str@PAGE Lloh14: add x0, x0, l_.str@PAGEOFF LBB0_9: bl _ath6kl_err LBB0_10: mov x0, x21 ldp x29, x30, [sp, #64] ; 16-byte Folded Reload ldp x20, x19, [sp, #48] ; 16-byte Folded Reload ldp x22, x21, [sp, #32] ; 16-byte Folded Reload add sp, sp, #80 ret LBB0_11: ldr w8, [x19] ldr x2, [sp, #16] cmp w8, #129 b.ne LBB0_14 ; %bb.12: cbnz x2, LBB0_14 ; %bb.13: Lloh15: adrp x0, l_.str@PAGE Lloh16: add x0, x0, l_.str@PAGEOFF b LBB0_26 LBB0_14: cmp w8, #128 b.eq LBB0_17 ; %bb.15: cmp w8, #129 b.ne LBB0_22 ; %bb.16: Lloh17: adrp x8, _AR6003_BOARD_DATA_SZ@GOTPAGE Lloh18: ldr x8, [x8, _AR6003_BOARD_DATA_SZ@GOTPAGEOFF] Lloh19: ldr x20, [x8] Lloh20: adrp x8, _AR6003_BOARD_EXT_DATA_SZ@GOTPAGE Lloh21: ldr x8, [x8, _AR6003_BOARD_EXT_DATA_SZ@GOTPAGEOFF] Lloh22: ldr x8, [x8] ldr x9, [x19, #8] Lloh23: adrp x10, _AR6003_BOARD_EXT_DATA_SZ_V2@GOTPAGE Lloh24: ldr x10, [x10, _AR6003_BOARD_EXT_DATA_SZ_V2@GOTPAGEOFF] Lloh25: ldr x10, [x10] add x11, x8, x20 cmp x9, x11 csel x22, x10, x8, gt b LBB0_18 LBB0_17: Lloh26: adrp x8, _AR6004_BOARD_DATA_SZ@GOTPAGE Lloh27: ldr x8, [x8, _AR6004_BOARD_DATA_SZ@GOTPAGEOFF] Lloh28: ldr x20, [x8] Lloh29: adrp x8, _AR6004_BOARD_EXT_DATA_SZ@GOTPAGE Lloh30: ldr x8, [x8, _AR6004_BOARD_EXT_DATA_SZ@GOTPAGEOFF] Lloh31: ldr x22, [x8] LBB0_18: cbz x2, LBB0_24 ; %bb.19: ldr x8, [x19, #8] add x9, x22, x20 cmp x8, x9 b.ne LBB0_24 ; %bb.20: Lloh32: adrp x8, _ATH6KL_DBG_BOOT@GOTPAGE Lloh33: ldr x8, [x8, _ATH6KL_DBG_BOOT@GOTPAGEOFF] Lloh34: ldr w0, [x8] Lloh35: adrp x1, l_.str.2@PAGE Lloh36: add x1, x1, l_.str.2@PAGEOFF mov x3, x22 bl _ath6kl_dbg ldr x1, [sp, #16] ldr x8, [x19, #24] add x2, x8, x20, lsl #2 mov x0, x19 mov x3, x22 bl _ath6kl_bmi_write cbz w0, LBB0_23 ; %bb.21: mov x21, x0 str x21, [sp] Lloh37: adrp x0, l_.str.3@PAGE Lloh38: add x0, x0, l_.str.3@PAGEOFF b LBB0_9 LBB0_22: mov w0, #1 bl _WARN_ON b LBB0_27 LBB0_23: mov w2, #1 bfi x2, x22, #16, #48 Lloh39: adrp x8, _hi_board_ext_data_config@GOTPAGE Lloh40: ldr x8, [x8, _hi_board_ext_data_config@GOTPAGEOFF] Lloh41: ldr w1, [x8] mov x0, x19 bl _ath6kl_bmi_write_hi32 LBB0_24: ldr x8, [x19, #8] cmp x8, x20 b.ge LBB0_28 ; %bb.25: str x8, [sp] Lloh42: adrp x0, l_.str.4@PAGE Lloh43: add x0, x0, l_.str.4@PAGEOFF LBB0_26: bl _ath6kl_err LBB0_27: Lloh44: adrp x8, _EINVAL@GOTPAGE Lloh45: ldr x8, [x8, _EINVAL@GOTPAGEOFF] b LBB0_2 LBB0_28: Lloh46: adrp x8, _ATH6KL_DBG_BOOT@GOTPAGE Lloh47: ldr x8, [x8, _ATH6KL_DBG_BOOT@GOTPAGEOFF] Lloh48: ldr w0, [x8] ldr x2, [sp, #24] Lloh49: adrp x1, l_.str.5@PAGE Lloh50: add x1, x1, l_.str.5@PAGEOFF mov x3, x20 bl _ath6kl_dbg ldr x1, [sp, #24] ldr x2, [x19, #24] mov x0, x19 mov x3, x20 bl _ath6kl_bmi_write mov x21, x0 cbz w0, LBB0_30 ; %bb.29: str x21, [sp] Lloh51: adrp x0, l_.str.6@PAGE Lloh52: add x0, x0, l_.str.6@PAGEOFF bl _ath6kl_err ; kill: def $w21 killed $w21 killed $x21 def $x21 b LBB0_10 LBB0_30: ldr x8, [x19, #16] Lloh53: adrp x9, _AR6004_HW_1_3_VERSION@GOTPAGE Lloh54: ldr x9, [x9, _AR6004_HW_1_3_VERSION@GOTPAGEOFF] Lloh55: ldr x9, [x9] Lloh56: adrp x10, _AR6004_HW_3_0_VERSION@GOTPAGE Lloh57: ldr x10, [x10, _AR6004_HW_3_0_VERSION@GOTPAGEOFF] Lloh58: ldr x10, [x10] cmp x8, x10 ccmp x8, x9, #4, ne csinc x2, x20, xzr, eq Lloh59: adrp x8, _hi_board_data_initialized@GOTPAGE Lloh60: ldr x8, [x8, _hi_board_data_initialized@GOTPAGEOFF] Lloh61: ldr w1, [x8] mov x0, x19 bl _ath6kl_bmi_write_hi32 b LBB0_10 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .loh AdrpAdd Lloh8, Lloh9 .loh AdrpLdrGotLdr Lloh10, Lloh11, Lloh12 .loh AdrpAdd Lloh13, Lloh14 .loh AdrpAdd Lloh15, Lloh16 .loh AdrpLdrGotLdr Lloh23, Lloh24, Lloh25 .loh AdrpLdrGotLdr Lloh20, Lloh21, Lloh22 .loh AdrpLdrGotLdr Lloh17, Lloh18, Lloh19 .loh AdrpLdrGotLdr Lloh29, Lloh30, Lloh31 .loh AdrpLdrGotLdr Lloh26, Lloh27, Lloh28 .loh AdrpAdd Lloh35, Lloh36 .loh AdrpLdrGotLdr Lloh32, Lloh33, Lloh34 .loh AdrpAdd Lloh37, Lloh38 .loh AdrpLdrGotLdr Lloh39, Lloh40, Lloh41 .loh AdrpAdd Lloh42, Lloh43 .loh AdrpLdrGot Lloh44, Lloh45 .loh AdrpAdd Lloh49, Lloh50 .loh AdrpLdrGotLdr Lloh46, Lloh47, Lloh48 .loh AdrpAdd Lloh51, Lloh52 .loh AdrpLdrGotLdr Lloh59, Lloh60, Lloh61 .loh AdrpLdrGotLdr Lloh56, Lloh57, Lloh58 .loh AdrpLdrGotLdr Lloh53, Lloh54, Lloh55 .cfi_endproc ; -- End function .comm _ENOENT,4,2 ; @ENOENT .comm _hi_board_data,4,2 ; @hi_board_data .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Failed to get board file target address.\n" .comm _hi_board_ext_data,4,2 ; @hi_board_ext_data l_.str.1: ; @.str.1 .asciz "Failed to get extended board file target address.\n" .comm _EINVAL,4,2 ; @EINVAL .comm _AR6003_BOARD_DATA_SZ,8,3 ; @AR6003_BOARD_DATA_SZ .comm _AR6003_BOARD_EXT_DATA_SZ,8,3 ; @AR6003_BOARD_EXT_DATA_SZ .comm _AR6003_BOARD_EXT_DATA_SZ_V2,8,3 ; @AR6003_BOARD_EXT_DATA_SZ_V2 .comm _AR6004_BOARD_DATA_SZ,8,3 ; @AR6004_BOARD_DATA_SZ .comm _AR6004_BOARD_EXT_DATA_SZ,8,3 ; @AR6004_BOARD_EXT_DATA_SZ .comm _ATH6KL_DBG_BOOT,4,2 ; @ATH6KL_DBG_BOOT l_.str.2: ; @.str.2 .asciz "writing extended board data to 0x%x (%d B)\n" l_.str.3: ; @.str.3 .asciz "Failed to write extended board data: %d\n" .comm _hi_board_ext_data_config,4,2 ; @hi_board_ext_data_config l_.str.4: ; @.str.4 .asciz "Too small board file: %zu\n" l_.str.5: ; @.str.5 .asciz "writing board file to 0x%x (%d B)\n" l_.str.6: ; @.str.6 .asciz "Board file bmi write failed: %d\n" .comm _AR6004_HW_1_3_VERSION,8,3 ; @AR6004_HW_1_3_VERSION .comm _AR6004_HW_3_0_VERSION,8,3 ; @AR6004_HW_3_0_VERSION .comm _hi_board_data_initialized,4,2 ; @hi_board_data_initialized .no_dead_strip _ath6kl_upload_board_file .subsections_via_symbols
AnghaBench/linux/drivers/net/wireless/ath/ath6kl/extr_init.c_ath6kl_upload_board_file.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function smsm_parse_ipc _smsm_parse_ipc: ## @smsm_parse_ipc .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $24, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %esi, %ebx movq %rdi, %r12 movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -48(%rbp) movq (%rdi), %rax movq 8(%rdi), %r14 movq (%rax), %r15 leaq L_.str(%rip), %rdx leaq -64(%rbp), %r13 movq %r13, %rdi movl $16, %esi movl %ebx, %ecx callq _snprintf movq %r15, %rdi movq %r13, %rsi xorl %edx, %edx callq _of_parse_phandle testq %rax, %rax je LBB0_1 ## %bb.2: movl %ebx, %ebx movq %rax, %rdi callq _syscon_node_to_regmap leaq (%rbx,%rbx,2), %rbx movl %eax, 8(%r14,%rbx,4) movl %eax, %edi callq _IS_ERR testq %rax, %rax je LBB0_4 ## %bb.3: leaq (%r14,%rbx,4), %rax addq $8, %rax movl (%rax), %edi callq _PTR_ERR jmp LBB0_9 LBB0_1: xorl %eax, %eax jmp LBB0_9 LBB0_4: leaq (%r14,%rbx,4), %rcx addq $4, %rcx leaq -64(%rbp), %rsi movq %r15, %rdi movl $1, %edx callq _of_property_read_u32_index testl %eax, %eax js LBB0_5 ## %bb.6: leaq (%r14,%rbx,4), %rcx leaq -64(%rbp), %rsi movq %r15, %rdi movl $2, %edx callq _of_property_read_u32_index testl %eax, %eax movl $0, %eax jns LBB0_9 ## %bb.7: movq (%r12), %rdi leaq L_.str.2(%rip), %rsi jmp LBB0_8 LBB0_5: movq (%r12), %rdi leaq L_.str.1(%rip), %rsi LBB0_8: leaq -64(%rbp), %rdx callq _dev_err movq _EINVAL@GOTPCREL(%rip), %rcx xorl %eax, %eax subl (%rcx), %eax LBB0_9: movq ___stack_chk_guard@GOTPCREL(%rip), %rcx movq (%rcx), %rcx cmpq -48(%rbp), %rcx jne LBB0_11 ## %bb.10: addq $24, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB0_11: callq ___stack_chk_fail .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "qcom,ipc-%d" L_.str.1: ## @.str.1 .asciz "no offset in %s\n" .comm _EINVAL,4,2 ## @EINVAL L_.str.2: ## @.str.2 .asciz "no bit in %s\n" .no_dead_strip _smsm_parse_ipc .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function smsm_parse_ipc _smsm_parse_ipc: ; @smsm_parse_ipc .cfi_startproc ; %bb.0: sub sp, sp, #96 .cfi_def_cfa_offset 96 stp x24, x23, [sp, #32] ; 16-byte Folded Spill stp x22, x21, [sp, #48] ; 16-byte Folded Spill stp x20, x19, [sp, #64] ; 16-byte Folded Spill stp x29, x30, [sp, #80] ; 16-byte Folded Spill add x29, sp, #80 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x21, x1 mov x19, x0 Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] str x8, [sp, #24] ldp x8, x22, [x0] ldr x20, [x8] Lloh3: adrp x2, l_.str@PAGE Lloh4: add x2, x2, l_.str@PAGEOFF add x0, sp, #8 mov w1, #16 mov x3, x21 bl _snprintf add x1, sp, #8 mov x0, x20 mov w2, #0 bl _of_parse_phandle cbz x0, LBB0_9 ; %bb.1: mov w21, w21 bl _syscon_node_to_regmap mov w8, #12 madd x23, x21, x8, x22 str w0, [x23, #8]! bl _IS_ERR cbz x0, LBB0_3 ; %bb.2: ldr w0, [x23] bl _PTR_ERR b LBB0_9 LBB0_3: mov w8, #12 madd x8, x21, x8, x22 add x3, x8, #4 add x1, sp, #8 mov x0, x20 mov w2, #1 bl _of_property_read_u32_index tbnz w0, #31, LBB0_6 ; %bb.4: mov w8, #12 madd x3, x21, x8, x22 add x1, sp, #8 mov x0, x20 mov w2, #2 bl _of_property_read_u32_index tbnz w0, #31, LBB0_7 ; %bb.5: mov w0, #0 b LBB0_9 LBB0_6: ldr x0, [x19] Lloh5: adrp x1, l_.str.1@PAGE Lloh6: add x1, x1, l_.str.1@PAGEOFF b LBB0_8 LBB0_7: ldr x0, [x19] Lloh7: adrp x1, l_.str.2@PAGE Lloh8: add x1, x1, l_.str.2@PAGEOFF LBB0_8: add x2, sp, #8 bl _dev_err Lloh9: adrp x8, _EINVAL@GOTPAGE Lloh10: ldr x8, [x8, _EINVAL@GOTPAGEOFF] Lloh11: ldr w8, [x8] neg w0, w8 LBB0_9: ldr x8, [sp, #24] Lloh12: adrp x9, ___stack_chk_guard@GOTPAGE Lloh13: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh14: ldr x9, [x9] cmp x9, x8 b.ne LBB0_11 ; %bb.10: ldp x29, x30, [sp, #80] ; 16-byte Folded Reload ldp x20, x19, [sp, #64] ; 16-byte Folded Reload ldp x22, x21, [sp, #48] ; 16-byte Folded Reload ldp x24, x23, [sp, #32] ; 16-byte Folded Reload add sp, sp, #96 ret LBB0_11: bl ___stack_chk_fail .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpAdd Lloh5, Lloh6 .loh AdrpAdd Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "qcom,ipc-%d" l_.str.1: ; @.str.1 .asciz "no offset in %s\n" .comm _EINVAL,4,2 ; @EINVAL l_.str.2: ; @.str.2 .asciz "no bit in %s\n" .no_dead_strip _smsm_parse_ipc .subsections_via_symbols
AnghaBench/linux/drivers/soc/qcom/extr_smsm.c_smsm_parse_ipc.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _dtoverlay_node_is_enabled ## -- Begin function dtoverlay_node_is_enabled .p2align 4, 0x90 _dtoverlay_node_is_enabled: ## @dtoverlay_node_is_enabled .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 testl %esi, %esi js LBB0_1 ## %bb.2: leaq L_.str(%rip), %rdx xorl %r14d, %r14d xorl %ecx, %ecx callq _dtoverlay_get_property testq %rax, %rax je LBB0_6 ## %bb.3: movq %rax, %rbx leaq L_.str.1(%rip), %rsi movq %rax, %rdi callq _strcmp testq %rax, %rax je LBB0_5 ## %bb.4: leaq L_.str.2(%rip), %rsi movq %rbx, %rdi callq _strcmp testq %rax, %rax jne LBB0_6 LBB0_5: movl $1, %r14d jmp LBB0_6 LBB0_1: xorl %r14d, %r14d LBB0_6: movl %r14d, %eax popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "status" L_.str.1: ## @.str.1 .asciz "okay" L_.str.2: ## @.str.2 .asciz "ok" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _dtoverlay_node_is_enabled ; -- Begin function dtoverlay_node_is_enabled .p2align 2 _dtoverlay_node_is_enabled: ; @dtoverlay_node_is_enabled .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 tbnz w1, #31, LBB0_4 ; %bb.1: Lloh0: adrp x2, l_.str@PAGE Lloh1: add x2, x2, l_.str@PAGEOFF mov x3, #0 bl _dtoverlay_get_property cbz x0, LBB0_6 ; %bb.2: mov x19, x0 Lloh2: adrp x1, l_.str.1@PAGE Lloh3: add x1, x1, l_.str.1@PAGEOFF bl _strcmp cbz x0, LBB0_5 ; %bb.3: Lloh4: adrp x1, l_.str.2@PAGE Lloh5: add x1, x1, l_.str.2@PAGEOFF mov x0, x19 bl _strcmp cbz x0, LBB0_5 LBB0_4: mov w0, #0 b LBB0_6 LBB0_5: mov w0, #1 LBB0_6: ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpAdd Lloh0, Lloh1 .loh AdrpAdd Lloh2, Lloh3 .loh AdrpAdd Lloh4, Lloh5 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "status" l_.str.1: ; @.str.1 .asciz "okay" l_.str.2: ; @.str.2 .asciz "ok" .subsections_via_symbols
AnghaBench/RetroArch/gfx/include/userland/helpers/dtoverlay/extr_dtoverlay.c_dtoverlay_node_is_enabled.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _vdev_dtl_required ## -- Begin function vdev_dtl_required .p2align 4, 0x90 _vdev_dtl_required: ## @vdev_dtl_required .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdi, %rbx movq 16(%rdi), %r15 movq 8(%rdi), %r14 movl (%rdi), %r12d movq _SCL_STATE_ALL@GOTPCREL(%rip), %r13 movq (%r13), %rsi movq _RW_WRITER@GOTPCREL(%rip), %rax movl (%rax), %edx movq %r15, %rdi callq _spa_config_held xorl %edi, %edi cmpq (%r13), %rax sete %dil callq _ASSERT movq _B_TRUE@GOTPCREL(%rip), %rax movl (%rax), %eax cmpq %rbx, (%r15) je LBB0_6 ## %bb.1: cmpq %rbx, %r14 je LBB0_6 ## %bb.2: movl %eax, (%rbx) movq _B_FALSE@GOTPCREL(%rip), %r13 movl (%r13), %ecx movq %r14, %rdi xorl %esi, %esi xorl %edx, %edx callq _vdev_dtl_reassess movq _DTL_OUTAGE@GOTPCREL(%rip), %rax movl (%rax), %esi movq %r14, %rdi callq _vdev_dtl_empty movl %eax, %r15d movl %r12d, (%rbx) movl (%r13), %ecx movq %r14, %rdi xorl %esi, %esi xorl %edx, %edx callq _vdev_dtl_reassess testl %r15d, %r15d sete %al je LBB0_5 ## %bb.3: movq _zio_injection_enabled@GOTPCREL(%rip), %rcx cmpq $0, (%rcx) je LBB0_5 ## %bb.4: movq _ECHILD@GOTPCREL(%rip), %rax movl (%rax), %edx movq %rbx, %rdi xorl %esi, %esi callq _zio_handle_device_injection testl %eax, %eax setne %al LBB0_5: movzbl %al, %eax LBB0_6: addq $8, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _SCL_STATE_ALL,8,3 ## @SCL_STATE_ALL .comm _RW_WRITER,4,2 ## @RW_WRITER .comm _B_TRUE,4,2 ## @B_TRUE .comm _B_FALSE,4,2 ## @B_FALSE .comm _DTL_OUTAGE,4,2 ## @DTL_OUTAGE .comm _zio_injection_enabled,8,3 ## @zio_injection_enabled .comm _ECHILD,4,2 ## @ECHILD .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _vdev_dtl_required ; -- Begin function vdev_dtl_required .p2align 2 _vdev_dtl_required: ; @vdev_dtl_required .cfi_startproc ; %bb.0: stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x19, x0 ldp x20, x21, [x0, #8] ldr w23, [x0] Lloh0: adrp x22, _SCL_STATE_ALL@GOTPAGE Lloh1: ldr x22, [x22, _SCL_STATE_ALL@GOTPAGEOFF] ldr x1, [x22] Lloh2: adrp x8, _RW_WRITER@GOTPAGE Lloh3: ldr x8, [x8, _RW_WRITER@GOTPAGEOFF] Lloh4: ldr w2, [x8] mov x0, x21 bl _spa_config_held ldr x8, [x22] cmp x0, x8 cset w0, eq bl _ASSERT ldr x8, [x21] Lloh5: adrp x9, _B_TRUE@GOTPAGE Lloh6: ldr x9, [x9, _B_TRUE@GOTPAGEOFF] Lloh7: ldr w21, [x9] cmp x8, x19 ccmp x20, x19, #4, ne b.eq LBB0_3 ; %bb.1: str w21, [x19] Lloh8: adrp x24, _B_FALSE@GOTPAGE Lloh9: ldr x24, [x24, _B_FALSE@GOTPAGEOFF] ldr w3, [x24] mov x0, x20 mov w1, #0 mov w2, #0 bl _vdev_dtl_reassess Lloh10: adrp x8, _DTL_OUTAGE@GOTPAGE Lloh11: ldr x8, [x8, _DTL_OUTAGE@GOTPAGEOFF] Lloh12: ldr w1, [x8] mov x0, x20 bl _vdev_dtl_empty mov x22, x0 cmp w0, #0 cset w21, eq str w23, [x19] ldr w3, [x24] mov x0, x20 mov w1, #0 mov w2, #0 bl _vdev_dtl_reassess Lloh13: adrp x8, _zio_injection_enabled@GOTPAGE Lloh14: ldr x8, [x8, _zio_injection_enabled@GOTPAGEOFF] Lloh15: ldr x8, [x8] cmp w22, #0 ccmp x8, #0, #4, ne b.eq LBB0_3 ; %bb.2: Lloh16: adrp x8, _ECHILD@GOTPAGE Lloh17: ldr x8, [x8, _ECHILD@GOTPAGEOFF] Lloh18: ldr w2, [x8] mov x0, x19 mov x1, #0 bl _zio_handle_device_injection cmp w0, #0 cset w21, ne LBB0_3: mov x0, x21 ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload ldp x24, x23, [sp], #64 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh13, Lloh14, Lloh15 .loh AdrpLdrGotLdr Lloh10, Lloh11, Lloh12 .loh AdrpLdrGot Lloh8, Lloh9 .loh AdrpLdrGotLdr Lloh16, Lloh17, Lloh18 .cfi_endproc ; -- End function .comm _SCL_STATE_ALL,8,3 ; @SCL_STATE_ALL .comm _RW_WRITER,4,2 ; @RW_WRITER .comm _B_TRUE,4,2 ; @B_TRUE .comm _B_FALSE,4,2 ; @B_FALSE .comm _DTL_OUTAGE,4,2 ; @DTL_OUTAGE .comm _zio_injection_enabled,8,3 ; @zio_injection_enabled .comm _ECHILD,4,2 ; @ECHILD .subsections_via_symbols
AnghaBench/zfs/module/zfs/extr_vdev.c_vdev_dtl_required.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function Import_Dir _Import_Dir: ## @Import_Dir .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq 16(%rdi), %rax cmpq $0, (%rax) je LBB0_1 ## %bb.2: cmpq $0, 8(%rdi) je LBB0_3 ## %bb.4: movq _Demux@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, 4(%rdi) movq _Control@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, (%rdi) movq _VLC_SUCCESS@GOTPCREL(%rip), %rax jmp LBB0_5 LBB0_1: movq _VLC_EGENERIC@GOTPCREL(%rip), %rax jmp LBB0_5 LBB0_3: movq _VLC_ETIMEOUT@GOTPCREL(%rip), %rax LBB0_5: movl (%rax), %eax popq %rbp retq .cfi_endproc ## -- End function .comm _VLC_EGENERIC,4,2 ## @VLC_EGENERIC .comm _VLC_ETIMEOUT,4,2 ## @VLC_ETIMEOUT .comm _Demux,4,2 ## @Demux .comm _Control,4,2 ## @Control .comm _VLC_SUCCESS,4,2 ## @VLC_SUCCESS .no_dead_strip _Import_Dir .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function Import_Dir _Import_Dir: ; @Import_Dir .cfi_startproc ; %bb.0: ldr x8, [x0, #16] ldr x8, [x8] cbz x8, LBB0_3 ; %bb.1: ldr x8, [x0, #8] cbz x8, LBB0_4 ; %bb.2: Lloh0: adrp x8, _Demux@GOTPAGE Lloh1: ldr x8, [x8, _Demux@GOTPAGEOFF] Lloh2: adrp x9, _Control@GOTPAGE Lloh3: ldr x9, [x9, _Control@GOTPAGEOFF] Lloh4: ldr w8, [x8] Lloh5: ldr w9, [x9] stp w9, w8, [x0] Lloh6: adrp x8, _VLC_SUCCESS@GOTPAGE Lloh7: ldr x8, [x8, _VLC_SUCCESS@GOTPAGEOFF] Lloh8: ldr w0, [x8] ret LBB0_3: Lloh9: adrp x8, _VLC_EGENERIC@GOTPAGE Lloh10: ldr x8, [x8, _VLC_EGENERIC@GOTPAGEOFF] Lloh11: ldr w0, [x8] ret LBB0_4: Lloh12: adrp x8, _VLC_ETIMEOUT@GOTPAGE Lloh13: ldr x8, [x8, _VLC_ETIMEOUT@GOTPAGEOFF] Lloh14: ldr w0, [x8] ret .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh4 .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14 .cfi_endproc ; -- End function .comm _VLC_EGENERIC,4,2 ; @VLC_EGENERIC .comm _VLC_ETIMEOUT,4,2 ; @VLC_ETIMEOUT .comm _Demux,4,2 ; @Demux .comm _Control,4,2 ; @Control .comm _VLC_SUCCESS,4,2 ; @VLC_SUCCESS .no_dead_strip _Import_Dir .subsections_via_symbols
AnghaBench/vlc/modules/demux/extr_directory.c_Import_Dir.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__literal16,16byte_literals .p2align 4 ## -- Begin function prepare_phy_data_for_init LCPI0_0: .long 65535 ## 0xffff .long 65535 ## 0xffff .long 0 ## 0x0 .long 0 ## 0x0 .section __TEXT,__text,regular,pure_instructions .p2align 4, 0x90 _prepare_phy_data_for_init: ## @prepare_phy_data_for_init .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rdi, %r14 callq _b43legacy_default_baseband_attenuation movl %eax, 112(%r14) movq %r14, %rdi callq _b43legacy_default_radio_attenuation movl %eax, 108(%r14) movq %r14, %rdi callq _b43legacy_default_txctl1 movl %eax, 104(%r14) movl $65535, (%r14) ## imm = 0xFFFF xorps %xmm0, %xmm0 movups %xmm0, 88(%r14) movq 8(%r14), %rdi callq _ARRAY_SIZE testl %eax, %eax jle LBB0_3 ## %bb.1: xorl %ebx, %ebx .p2align 4, 0x90 LBB0_2: ## =>This Inner Loop Header: Depth=1 movq 8(%r14), %rdi movl $-1000, (%rdi,%rbx,4) ## imm = 0xFC18 incq %rbx callq _ARRAY_SIZE cltq cmpq %rax, %rbx jl LBB0_2 LBB0_3: movq 16(%r14), %rdi callq _ARRAY_SIZE testl %eax, %eax jle LBB0_6 ## %bb.4: xorl %ebx, %ebx .p2align 4, 0x90 LBB0_5: ## =>This Inner Loop Header: Depth=1 movq 16(%r14), %rdi movl %ebx, (%rdi,%rbx,4) incq %rbx callq _ARRAY_SIZE cltq cmpq %rax, %rbx jl LBB0_5 LBB0_6: movaps LCPI0_0(%rip), %xmm0 ## xmm0 = [65535,65535,0,0] movups %xmm0, 24(%r14) movabsq $281470681743360, %rax ## imm = 0xFFFF00000000 movq %rax, 40(%r14) movq 80(%r14), %rdi movl $255, %esi movl $8, %edx callq _memset movq 72(%r14), %rdi xorl %esi, %esi movl $8, %edx callq _memset movq $0, 64(%r14) movq 56(%r14), %rdi testq %rdi, %rdi je LBB0_8 ## %bb.7: movq _B43legacy_LO_COUNT@GOTPCREL(%rip), %rax movl (%rax), %edx shll $2, %edx xorl %esi, %esi callq _memset LBB0_8: movq 48(%r14), %rdi xorl %esi, %esi movl $8, %edx popq %rbx popq %r14 popq %rbp jmp _memset ## TAILCALL .cfi_endproc ## -- End function .comm _B43legacy_LO_COUNT,4,2 ## @B43legacy_LO_COUNT .no_dead_strip _prepare_phy_data_for_init .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__literal16,16byte_literals .p2align 4 ; -- Begin function prepare_phy_data_for_init lCPI0_0: .long 65535 ; 0xffff .long 65535 ; 0xffff .long 0 ; 0x0 .long 0 ; 0x0 .section __TEXT,__text,regular,pure_instructions .p2align 2 _prepare_phy_data_for_init: ; @prepare_phy_data_for_init .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x0 bl _b43legacy_default_baseband_attenuation str w0, [x19, #112] mov x0, x19 bl _b43legacy_default_radio_attenuation str w0, [x19, #108] mov x0, x19 bl _b43legacy_default_txctl1 str w0, [x19, #104] mov w8, #65535 str w8, [x19] stp xzr, xzr, [x19, #88] ldr x0, [x19, #8] bl _ARRAY_SIZE cmp w0, #1 b.lt LBB0_3 ; %bb.1: mov x20, #0 mov w21, #-1000 LBB0_2: ; =>This Inner Loop Header: Depth=1 ldr x0, [x19, #8] str w21, [x0, x20, lsl #2] add x20, x20, #1 bl _ARRAY_SIZE cmp x20, w0, sxtw b.lt LBB0_2 LBB0_3: ldr x0, [x19, #16] bl _ARRAY_SIZE cmp w0, #1 b.lt LBB0_6 ; %bb.4: mov x20, #0 LBB0_5: ; =>This Inner Loop Header: Depth=1 ldr x0, [x19, #16] str w20, [x0, x20, lsl #2] add x20, x20, #1 bl _ARRAY_SIZE cmp x20, w0, sxtw b.lt LBB0_5 LBB0_6: Lloh0: adrp x8, lCPI0_0@PAGE Lloh1: ldr q0, [x8, lCPI0_0@PAGEOFF] stur q0, [x19, #24] movi d0, #0x00ffff00000000 str d0, [x19, #40] ldr x0, [x19, #80] mov w1, #255 mov w2, #8 bl _memset ldr x0, [x19, #72] mov w1, #0 mov w2, #8 bl _memset str xzr, [x19, #64] ldr x0, [x19, #56] cbz x0, LBB0_8 ; %bb.7: Lloh2: adrp x8, _B43legacy_LO_COUNT@GOTPAGE Lloh3: ldr x8, [x8, _B43legacy_LO_COUNT@GOTPAGEOFF] Lloh4: ldr w8, [x8] lsl w2, w8, #2 mov w1, #0 bl _memset LBB0_8: ldr x0, [x19, #48] mov w1, #0 mov w2, #8 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b _memset .loh AdrpLdr Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .cfi_endproc ; -- End function .comm _B43legacy_LO_COUNT,4,2 ; @B43legacy_LO_COUNT .no_dead_strip _prepare_phy_data_for_init .subsections_via_symbols
AnghaBench/fastsocket/kernel/drivers/net/wireless/b43legacy/extr_main.c_prepare_phy_data_for_init.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _wpa_sm_set_pmk ## -- Begin function wpa_sm_set_pmk .p2align 4, 0x90 _wpa_sm_set_pmk: ## @wpa_sm_set_pmk .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 testq %rdi, %rdi je LBB0_3 ## %bb.1: movq %r8, %r15 movq %rcx, %r14 movq %rdx, %r13 movq %rsi, %r12 movq %rdi, %rbx movq _MSG_DEBUG@GOTPCREL(%rip), %rax movl (%rax), %edi leaq L_.str(%rip), %rsi movq %r12, %rdx movq %r13, %rcx callq _wpa_hexdump_key movq %r13, (%rbx) movl 36(%rbx), %edi movq %r12, %rsi movq %r13, %rdx callq _os_memcpy testq %r15, %r15 je LBB0_3 ## %bb.2: movl 28(%rbx), %edi movl 24(%rbx), %r10d movl 16(%rbx), %eax movl 20(%rbx), %ebx subq $8, %rsp movq %r12, %rsi movq %r13, %rdx movq %r14, %rcx xorl %r8d, %r8d xorl %r9d, %r9d pushq $0 pushq %rax pushq %rbx pushq %r10 pushq %r15 callq _pmksa_cache_add addq $56, %rsp jmp LBB0_4 LBB0_3: addq $8, %rsp LBB0_4: popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _MSG_DEBUG,4,2 ## @MSG_DEBUG .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "WPA: Set PMK based on external data" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _wpa_sm_set_pmk ; -- Begin function wpa_sm_set_pmk .p2align 2 _wpa_sm_set_pmk: ; @wpa_sm_set_pmk .cfi_startproc ; %bb.0: sub sp, sp, #80 .cfi_def_cfa_offset 80 stp x24, x23, [sp, #16] ; 16-byte Folded Spill stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 cbz x0, LBB0_3 ; %bb.1: mov x19, x4 mov x20, x3 mov x21, x2 mov x22, x1 mov x23, x0 Lloh0: adrp x8, _MSG_DEBUG@GOTPAGE Lloh1: ldr x8, [x8, _MSG_DEBUG@GOTPAGEOFF] Lloh2: ldr w0, [x8] Lloh3: adrp x1, l_.str@PAGE Lloh4: add x1, x1, l_.str@PAGEOFF mov x2, x22 mov x3, x21 bl _wpa_hexdump_key str x21, [x23] ldr w0, [x23, #36] mov x1, x22 mov x2, x21 bl _os_memcpy cbz x19, LBB0_3 ; %bb.2: ldp w7, w0, [x23, #24] ldp w9, w8, [x23, #16] str xzr, [sp, #8] stp w8, w9, [sp] mov x1, x22 mov x2, x21 mov x3, x20 mov x4, #0 mov w5, #0 mov x6, x19 bl _pmksa_cache_add LBB0_3: ldp x29, x30, [sp, #64] ; 16-byte Folded Reload ldp x20, x19, [sp, #48] ; 16-byte Folded Reload ldp x22, x21, [sp, #32] ; 16-byte Folded Reload ldp x24, x23, [sp, #16] ; 16-byte Folded Reload add sp, sp, #80 ret .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _MSG_DEBUG,4,2 ; @MSG_DEBUG .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "WPA: Set PMK based on external data" .subsections_via_symbols
AnghaBench/freebsd/contrib/wpa/src/rsn_supp/extr_wpa.c_wpa_sm_set_pmk.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _i40e_read_bw_from_alt_ram ## -- Begin function i40e_read_bw_from_alt_ram .p2align 4, 0x90 _i40e_read_bw_from_alt_ram: ## @i40e_read_bw_from_alt_ram .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %r8, %r14 movq %rcx, %r15 movq %rdx, %rbx movq %rsi, %r12 movq _I40E_ALT_STRUCT_FIRST_PF_OFFSET@GOTPCREL(%rip), %rax movq _I40E_ALT_STRUCT_DWORDS_PER_PF@GOTPCREL(%rip), %rdx movl (%rdi), %ecx imull (%rdx), %ecx movq _I40E_ALT_STRUCT_MAX_BW_OFFSET@GOTPCREL(%rip), %rdx addl (%rax), %ecx movl (%rdx), %esi addl %ecx, %esi movq _I40E_ALT_STRUCT_MIN_BW_OFFSET@GOTPCREL(%rip), %rax addl (%rax), %ecx movq %r12, %rdx movq %rbx, %r8 callq _i40e_aq_alternate_read movq _I40E_ALT_BW_VALID_MASK@GOTPCREL(%rip), %rcx movl (%rcx), %edx andl (%rbx), %edx movq _FALSE@GOTPCREL(%rip), %rdx movq _TRUE@GOTPCREL(%rip), %rsi movq %rsi, %rdi cmoveq %rdx, %rdi movl (%rdi), %edi movl %edi, (%r15) movl (%rcx), %ecx andl (%r12), %ecx cmoveq %rdx, %rsi movl (%rsi), %ecx movl %ecx, (%r14) popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _I40E_ALT_STRUCT_FIRST_PF_OFFSET,4,2 ## @I40E_ALT_STRUCT_FIRST_PF_OFFSET .comm _I40E_ALT_STRUCT_MAX_BW_OFFSET,4,2 ## @I40E_ALT_STRUCT_MAX_BW_OFFSET .comm _I40E_ALT_STRUCT_DWORDS_PER_PF,4,2 ## @I40E_ALT_STRUCT_DWORDS_PER_PF .comm _I40E_ALT_STRUCT_MIN_BW_OFFSET,4,2 ## @I40E_ALT_STRUCT_MIN_BW_OFFSET .comm _I40E_ALT_BW_VALID_MASK,4,2 ## @I40E_ALT_BW_VALID_MASK .comm _TRUE,4,2 ## @TRUE .comm _FALSE,4,2 ## @FALSE .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _i40e_read_bw_from_alt_ram ; -- Begin function i40e_read_bw_from_alt_ram .p2align 2 _i40e_read_bw_from_alt_ram: ; @i40e_read_bw_from_alt_ram .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x4 mov x20, x3 mov x21, x2 mov x22, x1 ldr w8, [x0] Lloh0: adrp x9, _I40E_ALT_STRUCT_FIRST_PF_OFFSET@GOTPAGE Lloh1: ldr x9, [x9, _I40E_ALT_STRUCT_FIRST_PF_OFFSET@GOTPAGEOFF] Lloh2: ldr w9, [x9] Lloh3: adrp x10, _I40E_ALT_STRUCT_MAX_BW_OFFSET@GOTPAGE Lloh4: ldr x10, [x10, _I40E_ALT_STRUCT_MAX_BW_OFFSET@GOTPAGEOFF] Lloh5: ldr w10, [x10] Lloh6: adrp x11, _I40E_ALT_STRUCT_DWORDS_PER_PF@GOTPAGE Lloh7: ldr x11, [x11, _I40E_ALT_STRUCT_DWORDS_PER_PF@GOTPAGEOFF] Lloh8: ldr w11, [x11] madd w8, w8, w11, w9 add w1, w8, w10 Lloh9: adrp x9, _I40E_ALT_STRUCT_MIN_BW_OFFSET@GOTPAGE Lloh10: ldr x9, [x9, _I40E_ALT_STRUCT_MIN_BW_OFFSET@GOTPAGEOFF] Lloh11: ldr w9, [x9] add w3, w8, w9 mov x2, x22 mov x4, x21 bl _i40e_aq_alternate_read ldr w8, [x21] Lloh12: adrp x9, _I40E_ALT_BW_VALID_MASK@GOTPAGE Lloh13: ldr x9, [x9, _I40E_ALT_BW_VALID_MASK@GOTPAGEOFF] Lloh14: adrp x10, _FALSE@GOTPAGE Lloh15: ldr x10, [x10, _FALSE@GOTPAGEOFF] Lloh16: adrp x11, _TRUE@GOTPAGE Lloh17: ldr x11, [x11, _TRUE@GOTPAGEOFF] ldr w12, [x9] tst w12, w8 csel x8, x10, x11, eq ldr w8, [x8] str w8, [x20] ldr w8, [x22] ldr w9, [x9] tst w9, w8 csel x8, x10, x11, eq ldr w8, [x8] str w8, [x19] ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpLdrGot Lloh16, Lloh17 .loh AdrpLdrGot Lloh14, Lloh15 .loh AdrpLdrGot Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _I40E_ALT_STRUCT_FIRST_PF_OFFSET,4,2 ; @I40E_ALT_STRUCT_FIRST_PF_OFFSET .comm _I40E_ALT_STRUCT_MAX_BW_OFFSET,4,2 ; @I40E_ALT_STRUCT_MAX_BW_OFFSET .comm _I40E_ALT_STRUCT_DWORDS_PER_PF,4,2 ; @I40E_ALT_STRUCT_DWORDS_PER_PF .comm _I40E_ALT_STRUCT_MIN_BW_OFFSET,4,2 ; @I40E_ALT_STRUCT_MIN_BW_OFFSET .comm _I40E_ALT_BW_VALID_MASK,4,2 ; @I40E_ALT_BW_VALID_MASK .comm _TRUE,4,2 ; @TRUE .comm _FALSE,4,2 ; @FALSE .subsections_via_symbols
AnghaBench/freebsd/sys/dev/ixl/extr_i40e_common.c_i40e_read_bw_from_alt_ram.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function ov965x_set_banding_filter _ov965x_set_banding_filter: ## @ov965x_set_banding_filter .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %esi, %ebx movq %rdi, %r14 movq _REG_COM8@GOTPCREL(%rip), %r15 movl (%r15), %esi leaq -32(%rbp), %rdx callq _ov965x_read testl %eax, %eax jne LBB0_5 ## %bb.1: movq _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPCREL(%rip), %rax movq _COM8_BFILT@GOTPCREL(%rip), %rcx movq (%rcx), %rdx cmpl %ebx, (%rax) jne LBB0_3 ## %bb.2: notq %rdx andq -32(%rbp), %rdx jmp LBB0_4 LBB0_3: orq -32(%rbp), %rdx LBB0_4: movq %rdx, -32(%rbp) movl (%r15), %esi movq %r14, %rdi callq _ov965x_write LBB0_5: movq _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPCREL(%rip), %rcx xorl %eax, %eax cmpl %ebx, (%rcx) je LBB0_15 ## %bb.6: xorl %edi, %edi cmpq $0, (%r14) sete %dil callq _WARN_ON testq %rax, %rax je LBB0_8 ## %bb.7: movq _EINVAL@GOTPCREL(%rip), %rcx xorl %eax, %eax subl (%rcx), %eax jmp LBB0_15 LBB0_8: movq _V4L2_CID_POWER_LINE_FREQUENCY_50HZ@GOTPCREL(%rip), %rax cmpl %ebx, (%rax) movl $100, %eax movl $120, %ecx cmoveq %rax, %rcx movq (%r14), %rax movq 8(%r14), %rdx movq (%rax), %rdi imulq (%rdx), %rdi movq 8(%rax), %rsi imulq $1000, %rdi, %rax ## imm = 0x3E8 movq %rax, %rdx orq %rsi, %rdx shrq $32, %rdx je LBB0_9 ## %bb.10: xorl %edx, %edx divq %rsi jmp LBB0_11 LBB0_9: ## kill: def $eax killed $eax killed $rax xorl %edx, %edx divl %esi ## kill: def $eax killed $eax def $rax LBB0_11: movq %rax, %rdx shrq $32, %rdx je LBB0_12 ## %bb.13: xorl %edx, %edx divq %rcx jmp LBB0_14 LBB0_12: ## kill: def $eax killed $eax killed $rax xorl %edx, %edx divl %ecx ## kill: def $eax killed $eax def $rax LBB0_14: addq $500, %rax ## imm = 0x1F4 shrq $3, %rax movabsq $2361183241434822607, %rcx ## imm = 0x20C49BA5E353F7CF mulq %rcx shrq $4, %rdx movq _REG_MBD@GOTPCREL(%rip), %rax movl (%rax), %esi movq %r14, %rdi callq _ov965x_write LBB0_15: addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _REG_COM8,4,2 ## @REG_COM8 .comm _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED,4,2 ## @V4L2_CID_POWER_LINE_FREQUENCY_DISABLED .comm _COM8_BFILT,8,3 ## @COM8_BFILT .comm _EINVAL,4,2 ## @EINVAL .comm _V4L2_CID_POWER_LINE_FREQUENCY_50HZ,4,2 ## @V4L2_CID_POWER_LINE_FREQUENCY_50HZ .comm _REG_MBD,4,2 ## @REG_MBD .no_dead_strip _ov965x_set_banding_filter .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function ov965x_set_banding_filter _ov965x_set_banding_filter: ; @ov965x_set_banding_filter .cfi_startproc ; %bb.0: sub sp, sp, #64 .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x20, x1 mov x19, x0 Lloh0: adrp x21, _REG_COM8@GOTPAGE Lloh1: ldr x21, [x21, _REG_COM8@GOTPAGEOFF] ldr w1, [x21] add x2, sp, #8 bl _ov965x_read Lloh2: adrp x22, _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPAGE Lloh3: ldr x22, [x22, _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPAGEOFF] cbnz w0, LBB0_5 ; %bb.1: ldr w9, [x22] Lloh4: adrp x8, _COM8_BFILT@GOTPAGE Lloh5: ldr x8, [x8, _COM8_BFILT@GOTPAGEOFF] Lloh6: ldr x8, [x8] cmp w9, w20 b.ne LBB0_3 ; %bb.2: ldr x9, [sp, #8] bic x2, x9, x8 b LBB0_4 LBB0_3: ldr x9, [sp, #8] orr x2, x9, x8 LBB0_4: str x2, [sp, #8] ldr w1, [x21] mov x0, x19 bl _ov965x_write LBB0_5: ldr w8, [x22] cmp w8, w20 b.ne LBB0_7 ; %bb.6: mov w0, #0 b LBB0_10 LBB0_7: ldr x8, [x19] cmp x8, #0 cset w0, eq bl _WARN_ON cbz x0, LBB0_9 ; %bb.8: Lloh7: adrp x8, _EINVAL@GOTPAGE Lloh8: ldr x8, [x8, _EINVAL@GOTPAGEOFF] Lloh9: ldr w8, [x8] neg w0, w8 b LBB0_10 LBB0_9: Lloh10: adrp x8, _V4L2_CID_POWER_LINE_FREQUENCY_50HZ@GOTPAGE Lloh11: ldr x8, [x8, _V4L2_CID_POWER_LINE_FREQUENCY_50HZ@GOTPAGEOFF] Lloh12: ldr w8, [x8] cmp w8, w20 mov w8, #120 mov w9, #100 csel x8, x9, x8, eq ldp x9, x10, [x19] ldr x10, [x10] ldp x11, x9, [x9] mul x10, x11, x10 mov w11, #1000 mul x10, x10, x11 udiv x9, x10, x9 udiv x8, x9, x8 add x8, x8, #500 lsr x8, x8, #3 mov x9, #63439 movk x9, #58195, lsl #16 movk x9, #39845, lsl #32 movk x9, #8388, lsl #48 umulh x8, x8, x9 lsr x2, x8, #4 Lloh13: adrp x8, _REG_MBD@GOTPAGE Lloh14: ldr x8, [x8, _REG_MBD@GOTPAGEOFF] Lloh15: ldr w1, [x8] mov x0, x19 bl _ov965x_write LBB0_10: ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload add sp, sp, #64 ret .loh AdrpLdrGot Lloh2, Lloh3 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6 .loh AdrpLdrGotLdr Lloh7, Lloh8, Lloh9 .loh AdrpLdrGotLdr Lloh13, Lloh14, Lloh15 .loh AdrpLdrGotLdr Lloh10, Lloh11, Lloh12 .cfi_endproc ; -- End function .comm _REG_COM8,4,2 ; @REG_COM8 .comm _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED,4,2 ; @V4L2_CID_POWER_LINE_FREQUENCY_DISABLED .comm _COM8_BFILT,8,3 ; @COM8_BFILT .comm _EINVAL,4,2 ; @EINVAL .comm _V4L2_CID_POWER_LINE_FREQUENCY_50HZ,4,2 ; @V4L2_CID_POWER_LINE_FREQUENCY_50HZ .comm _REG_MBD,4,2 ; @REG_MBD .no_dead_strip _ov965x_set_banding_filter .subsections_via_symbols
AnghaBench/linux/drivers/media/i2c/extr_ov9650.c_ov965x_set_banding_filter.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function new_skb _new_skb: ## @new_skb .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq _MAX_HEADER@GOTPCREL(%rip), %r14 addq (%r14), %rdi movq _GFP_ATOMIC@GOTPCREL(%rip), %rax movl (%rax), %esi callq _alloc_skb movq %rax, %rbx testq %rax, %rax je LBB0_2 ## %bb.1: movq (%r14), %rsi movq %rbx, %rdi callq _skb_reserve movq %rbx, %rdi callq _skb_reset_mac_header movq %rbx, %rdi callq _skb_reset_network_header movq _ETH_P_AOE@GOTPCREL(%rip), %rax movl (%rax), %edi callq ___constant_htons movl %eax, (%rbx) movq %rbx, %rdi callq _skb_checksum_none_assert LBB0_2: movq %rbx, %rax popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .comm _MAX_HEADER,8,3 ## @MAX_HEADER .comm _GFP_ATOMIC,4,2 ## @GFP_ATOMIC .comm _ETH_P_AOE,4,2 ## @ETH_P_AOE .no_dead_strip _new_skb .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function new_skb _new_skb: ; @new_skb .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 Lloh0: adrp x20, _MAX_HEADER@GOTPAGE Lloh1: ldr x20, [x20, _MAX_HEADER@GOTPAGEOFF] ldr x8, [x20] add x0, x8, x0 Lloh2: adrp x8, _GFP_ATOMIC@GOTPAGE Lloh3: ldr x8, [x8, _GFP_ATOMIC@GOTPAGEOFF] Lloh4: ldr w1, [x8] bl _alloc_skb mov x19, x0 cbz x0, LBB0_2 ; %bb.1: ldr x1, [x20] mov x0, x19 bl _skb_reserve mov x0, x19 bl _skb_reset_mac_header mov x0, x19 bl _skb_reset_network_header Lloh5: adrp x8, _ETH_P_AOE@GOTPAGE Lloh6: ldr x8, [x8, _ETH_P_AOE@GOTPAGEOFF] Lloh7: ldr w0, [x8] bl ___constant_htons str w0, [x19] mov x0, x19 bl _skb_checksum_none_assert LBB0_2: mov x0, x19 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .cfi_endproc ; -- End function .comm _MAX_HEADER,8,3 ; @MAX_HEADER .comm _GFP_ATOMIC,4,2 ; @GFP_ATOMIC .comm _ETH_P_AOE,4,2 ; @ETH_P_AOE .no_dead_strip _new_skb .subsections_via_symbols
AnghaBench/linux/drivers/block/aoe/extr_aoecmd.c_new_skb.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function ath9k_hif_usb_dealloc_rx_urbs _ath9k_hif_usb_dealloc_rx_urbs: ## @ath9k_hif_usb_dealloc_rx_urbs .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp popq %rbp jmp _usb_kill_anchored_urbs ## TAILCALL .cfi_endproc ## -- End function .no_dead_strip _ath9k_hif_usb_dealloc_rx_urbs .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function ath9k_hif_usb_dealloc_rx_urbs _ath9k_hif_usb_dealloc_rx_urbs: ; @ath9k_hif_usb_dealloc_rx_urbs .cfi_startproc ; %bb.0: b _usb_kill_anchored_urbs .cfi_endproc ; -- End function .no_dead_strip _ath9k_hif_usb_dealloc_rx_urbs .subsections_via_symbols
AnghaBench/linux/drivers/net/wireless/ath/ath9k/extr_hif_usb.c_ath9k_hif_usb_dealloc_rx_urbs.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _AAS_IndexFromModel ## -- Begin function AAS_IndexFromModel .p2align 4, 0x90 _AAS_IndexFromModel: ## @AAS_IndexFromModel .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq _aasworld@GOTPCREL(%rip), %rax movq _CS_MODELS@GOTPCREL(%rip), %rcx movq (%rcx), %rsi shlq $2, %rsi addq (%rax), %rsi movq %rdi, %rcx movq _MAX_MODELS@GOTPCREL(%rip), %rax movl (%rax), %edx leaq L_.str(%rip), %rdi popq %rbp jmp _AAS_IndexFromString ## TAILCALL .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "IndexFromModel" .comm _aasworld,8,3 ## @aasworld .comm _CS_MODELS,8,3 ## @CS_MODELS .comm _MAX_MODELS,4,2 ## @MAX_MODELS .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _AAS_IndexFromModel ; -- Begin function AAS_IndexFromModel .p2align 2 _AAS_IndexFromModel: ; @AAS_IndexFromModel .cfi_startproc ; %bb.0: mov x3, x0 Lloh0: adrp x8, _aasworld@GOTPAGE Lloh1: ldr x8, [x8, _aasworld@GOTPAGEOFF] Lloh2: adrp x9, _CS_MODELS@GOTPAGE Lloh3: ldr x9, [x9, _CS_MODELS@GOTPAGEOFF] Lloh4: ldr x8, [x8] Lloh5: ldr x9, [x9] add x1, x8, x9, lsl #2 Lloh6: adrp x8, _MAX_MODELS@GOTPAGE Lloh7: ldr x8, [x8, _MAX_MODELS@GOTPAGEOFF] Lloh8: ldr w2, [x8] Lloh9: adrp x0, l_.str@PAGE Lloh10: add x0, x0, l_.str@PAGEOFF b _AAS_IndexFromString .loh AdrpAdd Lloh9, Lloh10 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh4 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "IndexFromModel" .comm _aasworld,8,3 ; @aasworld .comm _CS_MODELS,8,3 ; @CS_MODELS .comm _MAX_MODELS,4,2 ; @MAX_MODELS .subsections_via_symbols
AnghaBench/Quake-III-Arena/code/botlib/extr_be_aas_main.c_AAS_IndexFromModel.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function RcTree_Encode _RcTree_Encode: ## @RcTree_Encode .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 testl %edx, %edx je LBB0_3 ## %bb.1: movl %edx, %r13d movq %rsi, %r12 movq %rdi, %r15 decl %r13d movl $1, %eax movl %ecx, -44(%rbp) ## 4-byte Spill .p2align 4, 0x90 LBB0_2: ## =>This Inner Loop Header: Depth=1 xorl %ebx, %ebx btl %r13d, %ecx setb %bl movslq %eax, %r14 leaq (%r12,%r14,4), %rsi movq %r15, %rdi movl %ebx, %edx callq _RangeEnc_EncodeBit movl -44(%rbp), %ecx ## 4-byte Reload leal (%rbx,%r14,2), %eax addl $-1, %r13d jb LBB0_2 LBB0_3: addq $8, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .no_dead_strip _RcTree_Encode .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function RcTree_Encode _RcTree_Encode: ; @RcTree_Encode .cfi_startproc ; %bb.0: stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 cbz w2, LBB0_3 ; %bb.1: mov x19, x3 mov x20, x1 mov x21, x0 sub w22, w2, #1 mov w23, #1 LBB0_2: ; =>This Inner Loop Header: Depth=1 lsr w24, w19, w22 and w2, w24, #0x1 add x1, x20, w23, sxtw #2 mov x0, x21 bl _RangeEnc_EncodeBit bfi w24, w23, #1, #31 sub w22, w22, #1 mov x23, x24 cmn w22, #1 b.ne LBB0_2 LBB0_3: ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload ldp x24, x23, [sp], #64 ; 16-byte Folded Reload ret .cfi_endproc ; -- End function .no_dead_strip _RcTree_Encode .subsections_via_symbols
AnghaBench/sumatrapdf/ext/lzma/C/extr_LzmaEnc.c_RcTree_Encode.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function pontis_gpio_data_put _pontis_gpio_data_put: ## @pontis_gpio_data_put .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rsi, %r14 callq _snd_kcontrol_chip movq %rax, %rbx movq %rax, %rdi callq _mutex_lock movl 8(%rbx), %esi movq %rbx, %rdi callq _snd_ice1712_gpio_set_dir movl 4(%rbx), %esi movq %rbx, %rdi callq _snd_ice1712_gpio_set_mask movq %rbx, %rdi callq _snd_ice1712_gpio_read movzwl %ax, %eax movq (%r14), %rcx movzwl (%rcx), %esi xorl %r14d, %r14d cmpl %esi, %eax je LBB0_2 ## %bb.1: movq %rbx, %rdi callq _snd_ice1712_gpio_write movl $1, %r14d LBB0_2: movq %rbx, %rdi callq _mutex_unlock movl %r14d, %eax popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .no_dead_strip _pontis_gpio_data_put .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function pontis_gpio_data_put _pontis_gpio_data_put: ; @pontis_gpio_data_put .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x20, x1 bl _snd_kcontrol_chip mov x19, x0 bl _mutex_lock ldr w1, [x19, #8] mov x0, x19 bl _snd_ice1712_gpio_set_dir ldr w1, [x19, #4] mov x0, x19 bl _snd_ice1712_gpio_set_mask mov x0, x19 bl _snd_ice1712_gpio_read ldr x8, [x20] ldrh w1, [x8] cmp w1, w0, uxth b.ne LBB0_2 ; %bb.1: mov w20, #0 b LBB0_3 LBB0_2: mov x0, x19 bl _snd_ice1712_gpio_write mov w20, #1 LBB0_3: mov x0, x19 bl _mutex_unlock mov x0, x20 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .cfi_endproc ; -- End function .no_dead_strip _pontis_gpio_data_put .subsections_via_symbols
AnghaBench/linux/sound/pci/ice1712/extr_pontis.c_pontis_gpio_data_put.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__const .globl _nsglobe ## @nsglobe .p2align 2 _nsglobe: .long 132 ## 0x84 .long 135 ## 0x87 .long 4 ## 0x4 .asciz "\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\024.=\377\036Qn\3773x\236\377G\211\253\377\\\301\370\377\\\301\370\377\201\324\367\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377o\317\377\377Z\277\367\377Z\277\367\377G\211\253\3773x\236\377\036Qn\377\017$0\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\031Fb\377G\211\253\377|\326\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377Z\277\367\377G\211\253\377\036Qn\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377A\202\244\377\203\316\353\377\216\336\377\377\213\336\377\377\213\336\377\377\204\323\364\377\216\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\201\324\367\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377>\211\263\377\025<S\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377\201\313\347\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377Z\277\367\3773x\236\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\201\313\347\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377D\271\376\377\035Wz\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\203\316\353\377\231\344\376\377\231\344\376\377\227\343\377\377\227\343\377\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377t\322\377\377v\323\377\377l\316\377\377l\316\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377\\\301\370\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3773x\236\377\204\323\364\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\227\343\377\377\222\341\377\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377k\315\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\203\316\353\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377N\276\377\377&p\234\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377D\266\372\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377]\306\377\377a\310\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377G\211\253\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\205\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377D\266\372\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377x\324\377\377w\323\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377J\274\377\3773x\236\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\201\313\347\377\246\354\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377Q\277\377\377J\274\377\377I\274\377\377\037\222\335\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\203\316\353\377\250\355\377\377\250\355\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377m\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377\205\332\377\377\207\333\377\377]\304\375\377]\306\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377I\274\377\377I\274\377\377D\266\372\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\241\350\377\377\250\355\377\377\255\357\377\377\250\355\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377h\314\377\377\370\374\377\377\376\377\377\377t\322\377\377X\303\377\377X\303\377\377X\303\377\377V\302\377\377Q\277\377\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\241\350\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\250\355\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377s\321\377\377v\323\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377\241\350\377\377\376\377\377\377\376\377\377\377\307\363\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\255\357\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\211\334\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377A\202\244\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\241\350\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\266\372\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\255\357\377\377\201\313\347\377G\211\253\377\036Qn\377\017$0\377\202\313\347\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377t\322\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\255\357\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377k\315\377\377\250\355\377\377w\323\377\377D\271\376\377@\267\377\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\225\343\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\231\344\376\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377o\317\377\377X\303\377\377X\303\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377]\306\377\377\231\344\376\377\334\366\377\377\376\377\377\377\376\377\377\377\263\361\377\377D\271\376\377D\271\376\377?\267\377\377<\265\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\241\350\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\377Q\277\377\377T\301\376\377V\302\377\377\216\336\377\377\307\363\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\374\376\377\377\207\333\377\377D\271\376\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\231\344\376\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\177\330\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\223\342\377\377\334\366\377\377\263\361\377\377\231\344\376\377v\323\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377\216\336\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\207\333\377\377\200\327\376\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377]\304\375\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\3778\263\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\203\316\353\377\246\354\377\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\212\335\377\377\204\332\377\377\204\332\377\377\177\330\377\377\204\332\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\253\356\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\334\366\377\377\263\361\377\377\222\341\377\377l\316\377\377k\315\377\377g\313\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377:\262\373\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377x\324\377\377|\326\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\267\362\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377!\216\323\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377\307\363\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\216\336\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3778\263\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\234\346\376\377\246\354\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377\234\346\376\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377a\310\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\313\347\377\234\346\376\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377w\323\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3771\257\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\241\350\377\377\237\347\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377\307\363\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\225\343\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\225\343\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\200\330\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377\221\340\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\250\355\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\234\346\376\377\241\350\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\253\356\377\377G\211\253\377\035Wz\377G\211\253\377\202\313\347\377\246\354\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\334\366\377\377\204\332\377\377D\266\372\377@\267\377\377@\267\377\377=\265\376\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\216\336\377\377D\266\372\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\201\313\347\377\231\344\376\377\231\344\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\255\357\377\377\250\355\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377\205\332\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\221\340\377\377G\272\377\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\377*\253\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\243\351\377\377\250\355\377\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\250\355\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\250\355\377\377\243\351\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377t\322\377\377t\322\377\377\227\343\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\241\350\377\377H\273\377\3778\263\376\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\243\351\377\377\246\354\377\377|\326\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\225\343\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\212\335\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377\205\332\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377l\316\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377\030\230\355\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\250\355\377\377\202\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\246\354\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\352\370\377\377_\307\377\3775\262\377\3772\260\377\3772\260\377\377/\256\377\377/\256\377\377,\255\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\222\341\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377\237\347\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\377\377\377\243\351\377\377?\267\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377\032\225\347\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377\207\333\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\001\002\002\377G\211\253\377\221\340\377\377\221\340\377\377\221\340\377\377\221\340\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\225\343\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\361\372\377\377|\326\377\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\b\024\032\377\204\323\364\377\221\340\377\377\221\340\377\377\231\344\376\377\221\340\377\377\222\341\377\377\227\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\233\345\376\377\241\350\377\377\236\346\377\377\241\350\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377\222\341\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\243\351\377\377H\273\377\377<\265\376\377=\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377\221\340\377\377\217\337\377\377\223\342\377\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\227\343\377\377\222\341\377\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\227\343\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\227\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377\246\354\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377a\310\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377z\325\377\377\217\337\377\377\217\337\377\377\204\323\364\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\227\343\377\377\227\343\377\377\227\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377~\327\377\377\200\330\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\234\346\376\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377|\326\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\211\334\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377\222\341\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3777\262\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377\211\334\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377J\274\377\377@\267\377\377<\265\376\377:\263\374\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\207\333\377\377\207\333\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377\246\354\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\225\343\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\324\367\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\225\343\377\377\222\341\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377e\312\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\216\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377z\325\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\255\357\377\377;\264\376\3775\262\377\3778\263\376\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377\234\346\376\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377?\267\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\201\324\367\377\200\330\377\377~\327\377\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377o\317\377\377e\312\377\377k\315\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\231\344\376\377\263\361\377\377\361\372\377\377\376\377\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\204\332\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\200\327\376\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377a\310\377\377\231\344\376\377\307\363\377\377\376\377\377\377\370\374\377\377\352\370\377\377\374\376\377\377\307\363\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377|\326\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\200\330\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\212\335\377\377\207\333\377\377\212\335\377\377\212\335\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377v\323\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\250\355\377\377k\315\377\377t\322\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377v\323\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377B\270\376\377t\322\377\377\241\350\377\377\334\366\377\377\334\366\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\213\336\377\377\207\333\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\212\335\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\234\346\376\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\263\361\377\377y\325\377\377]\306\377\377V\302\377\377X\303\377\377V\302\377\377\255\357\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377:\263\374\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377A\202\244\377\036Qn\377\036Qn\377\025<S\377\024.=\377\204\323\364\377\213\336\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377\307\363\377\377\376\377\377\377\376\377\377\377\307\363\377\377\213\336\377\377_\307\377\377_\307\377\377]\304\375\377]\304\375\377V\302\377\377X\303\377\377V\302\377\377]\304\375\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\200\327\376\377D\271\376\377H\273\377\377D\266\372\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377\200\330\377\377~\327\377\377\204\332\377\377~\327\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\211\334\377\377\211\334\377\377\211\334\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377g\313\377\377k\315\377\377e\312\377\377e\312\377\377v\323\377\377\234\346\376\377e\312\377\377a\310\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377Q\277\377\377\207\333\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377\204\332\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\202\313\347\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377y\325\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377g\313\377\377e\312\377\377e\312\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\216\336\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377v\323\377\377v\323\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\205\332\377\377\205\332\377\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377e\312\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377J\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377D\271\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377p\320\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377k\315\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377Q\277\377\377Q\277\377\377\250\355\377\377\374\376\377\377\374\376\377\377\227\343\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377\352\370\377\377\374\376\377\377Q\277\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377e\312\377\377c\311\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377p\320\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\266\372\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377o\317\377\377k\315\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377x\324\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377f\313\377\377f\313\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377k\315\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377G\211\253\377\004\n\r\377\0245H\377\035Wz\377A\202\244\377\\\301\370\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377f\313\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\022\231\364\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\225\347\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377r\321\377\377v\323\377\377r\321\377\377r\321\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\021\233\371\377\t\033'\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377s\321\377\377s\321\377\377r\321\377\377v\323\377\377s\321\377\377s\321\377\377r\321\377\377r\321\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377s\321\377\377s\321\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377r\321\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\377;\264\376\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377I\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377s\321\377\377m\316\377\377r\321\377\377m\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377=\265\376\377=\265\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377m\316\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\243\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377]\306\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377l\316\377\377f\313\377\377l\316\377\377h\314\377\377f\313\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377<\265\376\377;\264\376\377;\264\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377h\314\377\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377k\315\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377+\254\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\030\230\355\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377!\216\323\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377G\211\253\377\035Wz\377\b\027 \3773x\236\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377!\216\323\377\004\n\r\377\000\000\000\377\b\027 \377\037\222\335\377\021\237\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377_\307\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377D\271\376\377@\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\036k\234\377\0245H\377\030\230\355\377\027\242\377\377\021\237\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377X\303\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377X\303\377\377X\303\377\377X\303\377\377X\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\\\301\370\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377:\263\374\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377\027[\207\377\037\222\335\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377V\302\377\377X\303\377\377X\303\377\377V\302\377\377X\303\377\377W\303\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377T\301\376\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377\032e\225\377\b\024\032\377\000\000\000\377\025<S\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\037\222\335\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377V\302\377\377V\302\377\377V\302\377\377X\303\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377>\211\263\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377\027[\207\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377R\300\376\377R\300\376\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377B\270\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377\037\222\335\377\036Qn\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377V\302\377\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\3771\210\275\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\030\230\355\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377D\266\372\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\266\372\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3772\260\377\377/\256\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\032e\225\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377T\301\376\377J\274\377\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377\036Qn\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377C\267\373\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3775\262\377\3777\262\377\3777\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\036k\234\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\032\225\347\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377>\211\263\377J\274\377\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377D\266\372\377\006\016\024\377\035Wz\377D\266\372\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377L\275\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\036k\234\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377I\274\377\377Q\277\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377V\302\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377G\272\377\377G\272\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\376\377&p\234\3771\210\275\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\0245H\377\003\004\006\377\031Fb\377!\216\323\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\022\231\364\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\036Qn\377>\211\263\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377G\272\377\377L\275\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3771\210\275\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\0245H\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377\037\222\335\377\030\230\355\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\035Wz\377D\266\372\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\377\037\222\335\377&p\234\377\036Qn\377\024.=\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\021\233\371\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377D\266\372\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377G\272\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&\212\311\377*\253\377\377/\256\377\377(\252\376\377+\254\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377I\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377G\272\377\377G\272\377\377G\272\377\377B\270\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377?\267\377\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\017\236\377\377\037\222\335\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377D\266\372\377\000\000\000\377\t\033'\377\017$0\377\031Fb\377\036Qn\377&p\234\377&p\234\3773x\236\377&\212\311\377&\212\311\377&\212\311\377D\266\372\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377\037\222\335\377&\212\311\377&p\234\377&p\234\377\027[\207\377\031Fb\377\031Fb\377\017$0\377\017$0\377\b\027 \377\000\000\000\377\035Wz\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3771\257\377\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\031Fb\377\036k\234\377(\252\376\377*\253\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377%\250\376\377%\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377\035Wz\377\017$0\377\000\000\000\377:\262\373\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377J\274\377\377J\274\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377=\265\376\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377:\263\374\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\377\017$0\377\000\000\000\377\001\002\002\377\000\000\000\377\b\027 \377\025<S\377\036k\234\377\037\222\335\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\3778\263\376\377D\271\376\377:\262\373\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377H\273\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\377\036k\234\377\027[\207\3771\210\275\377(\252\376\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377%\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\022\231\364\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377D\271\376\3773x\236\377\b\027 \3771\210\275\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377D\271\376\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377<\265\376\3778\263\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\3773x\236\377\017$0\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\024.=\377\000\000\000\377\000\000\000\377\b\024\032\3778\263\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\017$0\377\031Fb\377:\262\373\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3771\210\275\377@\267\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377&\212\311\3773x\236\377&p\234\377&p\234\377\035Wz\377\031Fb\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377@\267\377\3773x\236\377\035Wz\377&p\234\377&p\234\377&\212\311\377&\212\311\377\032\225\347\377<\265\376\377:\263\374\3775\262\377\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377!\216\323\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377:\262\373\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377B\270\376\377?\267\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\021\233\371\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377:\262\373\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377?\267\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377?\267\377\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036k\234\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\3778\263\376\377<\265\376\377=\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377!\216\323\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\032e\225\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\377;\264\376\377/\256\377\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\3771\257\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377%\250\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377&\212\311\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3778\263\376\3777\262\377\3775\262\377\3775\262\377\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\3775\262\377\3772\260\377\377\035Wz\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\3771\257\376\3777\262\377\3771\257\377\3777\262\377\3775\262\377\3772\260\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3775\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377\036Qn\377\037\222\335\377/\256\377\3771\257\377\377/\256\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377/\256\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377/\256\377\377/\256\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\030\230\355\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377/\256\377\377(\252\376\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377!\247\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377&\212\311\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377!\216\323\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\216\323\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\022\231\364\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\036Qn\377'\252\376\377(\252\376\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\025<S\377\003\004\006\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\030\230\355\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\006\016\024\377\037\222\335\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\030\230\355\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\032\225\347\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\016\235\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\031Fb\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377!\247\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\030\230\355\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\027[\207\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\027[\207\377\032\225\347\377#\250\376\377\037\246\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\021\233\371\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\021\233\371\377\036k\234\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\027[\207\377!\216\323\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\032\243\376\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\030\230\355\377\036k\234\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\025<S\377\032e\225\377\037\222\335\377\032\243\376\377\033\244\376\377\033\244\376\377\032\243\376\377\016\234\375\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\022\231\364\377\036k\234\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\025<S\377\035Wz\377\036k\234\377&\212\311\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\027\242\377\377\021\237\377\377\027\242\377\377!\216\323\377&\212\311\377\036k\234\377\032e\225\377\031Fb\377\024.=\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000" .space 3 .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__const .globl _nsglobe ; @nsglobe .p2align 2 _nsglobe: .long 132 ; 0x84 .long 135 ; 0x87 .long 4 ; 0x4 .asciz "\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\024.=\377\036Qn\3773x\236\377G\211\253\377\\\301\370\377\\\301\370\377\201\324\367\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377o\317\377\377Z\277\367\377Z\277\367\377G\211\253\3773x\236\377\036Qn\377\017$0\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\031Fb\377G\211\253\377|\326\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377Z\277\367\377G\211\253\377\036Qn\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377A\202\244\377\203\316\353\377\216\336\377\377\213\336\377\377\213\336\377\377\204\323\364\377\216\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\201\324\367\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377>\211\263\377\025<S\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377\201\313\347\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377Z\277\367\3773x\236\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\201\313\347\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377D\271\376\377\035Wz\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\203\316\353\377\231\344\376\377\231\344\376\377\227\343\377\377\227\343\377\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377t\322\377\377v\323\377\377l\316\377\377l\316\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377\\\301\370\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3773x\236\377\204\323\364\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\227\343\377\377\222\341\377\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377k\315\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\203\316\353\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377N\276\377\377&p\234\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377D\266\372\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377]\306\377\377a\310\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377G\211\253\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\205\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377D\266\372\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377x\324\377\377w\323\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377J\274\377\3773x\236\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\201\313\347\377\246\354\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377Q\277\377\377J\274\377\377I\274\377\377\037\222\335\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\203\316\353\377\250\355\377\377\250\355\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377m\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377\205\332\377\377\207\333\377\377]\304\375\377]\306\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377I\274\377\377I\274\377\377D\266\372\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\241\350\377\377\250\355\377\377\255\357\377\377\250\355\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377h\314\377\377\370\374\377\377\376\377\377\377t\322\377\377X\303\377\377X\303\377\377X\303\377\377V\302\377\377Q\277\377\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\241\350\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\250\355\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377s\321\377\377v\323\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377\241\350\377\377\376\377\377\377\376\377\377\377\307\363\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\255\357\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\211\334\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377A\202\244\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\241\350\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\266\372\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\255\357\377\377\201\313\347\377G\211\253\377\036Qn\377\017$0\377\202\313\347\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377t\322\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\255\357\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377k\315\377\377\250\355\377\377w\323\377\377D\271\376\377@\267\377\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\225\343\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\231\344\376\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377o\317\377\377X\303\377\377X\303\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377]\306\377\377\231\344\376\377\334\366\377\377\376\377\377\377\376\377\377\377\263\361\377\377D\271\376\377D\271\376\377?\267\377\377<\265\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\241\350\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\377Q\277\377\377T\301\376\377V\302\377\377\216\336\377\377\307\363\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\374\376\377\377\207\333\377\377D\271\376\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\231\344\376\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\177\330\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\223\342\377\377\334\366\377\377\263\361\377\377\231\344\376\377v\323\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377\216\336\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\207\333\377\377\200\327\376\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377]\304\375\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\3778\263\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\203\316\353\377\246\354\377\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\212\335\377\377\204\332\377\377\204\332\377\377\177\330\377\377\204\332\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\253\356\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\334\366\377\377\263\361\377\377\222\341\377\377l\316\377\377k\315\377\377g\313\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377:\262\373\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377x\324\377\377|\326\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\267\362\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377!\216\323\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377\307\363\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\216\336\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3778\263\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\234\346\376\377\246\354\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377\234\346\376\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377a\310\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\313\347\377\234\346\376\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377w\323\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3771\257\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\241\350\377\377\237\347\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377\307\363\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\225\343\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\225\343\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\200\330\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377\221\340\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\250\355\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\234\346\376\377\241\350\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\253\356\377\377G\211\253\377\035Wz\377G\211\253\377\202\313\347\377\246\354\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\334\366\377\377\204\332\377\377D\266\372\377@\267\377\377@\267\377\377=\265\376\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\216\336\377\377D\266\372\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\201\313\347\377\231\344\376\377\231\344\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\255\357\377\377\250\355\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377\205\332\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\221\340\377\377G\272\377\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\377*\253\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\243\351\377\377\250\355\377\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\250\355\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\250\355\377\377\243\351\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377t\322\377\377t\322\377\377\227\343\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\241\350\377\377H\273\377\3778\263\376\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\243\351\377\377\246\354\377\377|\326\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\225\343\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\212\335\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377\205\332\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377l\316\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377\030\230\355\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\250\355\377\377\202\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\246\354\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\352\370\377\377_\307\377\3775\262\377\3772\260\377\3772\260\377\377/\256\377\377/\256\377\377,\255\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\222\341\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377\237\347\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\377\377\377\243\351\377\377?\267\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377\032\225\347\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377\207\333\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\001\002\002\377G\211\253\377\221\340\377\377\221\340\377\377\221\340\377\377\221\340\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\225\343\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\361\372\377\377|\326\377\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\b\024\032\377\204\323\364\377\221\340\377\377\221\340\377\377\231\344\376\377\221\340\377\377\222\341\377\377\227\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\233\345\376\377\241\350\377\377\236\346\377\377\241\350\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377\222\341\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\243\351\377\377H\273\377\377<\265\376\377=\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377\221\340\377\377\217\337\377\377\223\342\377\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\227\343\377\377\222\341\377\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\227\343\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\227\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377\246\354\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377a\310\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377z\325\377\377\217\337\377\377\217\337\377\377\204\323\364\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\227\343\377\377\227\343\377\377\227\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377~\327\377\377\200\330\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\234\346\376\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377|\326\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\211\334\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377\222\341\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3777\262\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377\211\334\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377J\274\377\377@\267\377\377<\265\376\377:\263\374\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\207\333\377\377\207\333\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377\246\354\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\225\343\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\324\367\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\225\343\377\377\222\341\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377e\312\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\216\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377z\325\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\255\357\377\377;\264\376\3775\262\377\3778\263\376\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377\234\346\376\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377?\267\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\201\324\367\377\200\330\377\377~\327\377\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377o\317\377\377e\312\377\377k\315\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\231\344\376\377\263\361\377\377\361\372\377\377\376\377\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\204\332\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\200\327\376\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377a\310\377\377\231\344\376\377\307\363\377\377\376\377\377\377\370\374\377\377\352\370\377\377\374\376\377\377\307\363\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377|\326\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\200\330\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\212\335\377\377\207\333\377\377\212\335\377\377\212\335\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377v\323\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\250\355\377\377k\315\377\377t\322\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377v\323\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377B\270\376\377t\322\377\377\241\350\377\377\334\366\377\377\334\366\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\213\336\377\377\207\333\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\212\335\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\234\346\376\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\263\361\377\377y\325\377\377]\306\377\377V\302\377\377X\303\377\377V\302\377\377\255\357\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377:\263\374\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377A\202\244\377\036Qn\377\036Qn\377\025<S\377\024.=\377\204\323\364\377\213\336\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377\307\363\377\377\376\377\377\377\376\377\377\377\307\363\377\377\213\336\377\377_\307\377\377_\307\377\377]\304\375\377]\304\375\377V\302\377\377X\303\377\377V\302\377\377]\304\375\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\200\327\376\377D\271\376\377H\273\377\377D\266\372\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377\200\330\377\377~\327\377\377\204\332\377\377~\327\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\211\334\377\377\211\334\377\377\211\334\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377g\313\377\377k\315\377\377e\312\377\377e\312\377\377v\323\377\377\234\346\376\377e\312\377\377a\310\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377Q\277\377\377\207\333\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377\204\332\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\202\313\347\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377y\325\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377g\313\377\377e\312\377\377e\312\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\216\336\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377v\323\377\377v\323\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\205\332\377\377\205\332\377\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377e\312\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377J\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377D\271\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377p\320\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377k\315\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377Q\277\377\377Q\277\377\377\250\355\377\377\374\376\377\377\374\376\377\377\227\343\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377\352\370\377\377\374\376\377\377Q\277\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377e\312\377\377c\311\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377p\320\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\266\372\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377o\317\377\377k\315\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377x\324\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377f\313\377\377f\313\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377k\315\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377G\211\253\377\004\n\r\377\0245H\377\035Wz\377A\202\244\377\\\301\370\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377f\313\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\022\231\364\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\225\347\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377r\321\377\377v\323\377\377r\321\377\377r\321\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\021\233\371\377\t\033'\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377s\321\377\377s\321\377\377r\321\377\377v\323\377\377s\321\377\377s\321\377\377r\321\377\377r\321\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377s\321\377\377s\321\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377r\321\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\377;\264\376\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377I\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377s\321\377\377m\316\377\377r\321\377\377m\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377=\265\376\377=\265\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377m\316\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\243\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377]\306\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377l\316\377\377f\313\377\377l\316\377\377h\314\377\377f\313\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377<\265\376\377;\264\376\377;\264\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377h\314\377\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377k\315\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377+\254\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\030\230\355\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377!\216\323\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377G\211\253\377\035Wz\377\b\027 \3773x\236\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377!\216\323\377\004\n\r\377\000\000\000\377\b\027 \377\037\222\335\377\021\237\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377_\307\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377D\271\376\377@\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\036k\234\377\0245H\377\030\230\355\377\027\242\377\377\021\237\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377X\303\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377X\303\377\377X\303\377\377X\303\377\377X\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\\\301\370\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377:\263\374\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377\027[\207\377\037\222\335\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377V\302\377\377X\303\377\377X\303\377\377V\302\377\377X\303\377\377W\303\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377T\301\376\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377\032e\225\377\b\024\032\377\000\000\000\377\025<S\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\037\222\335\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377V\302\377\377V\302\377\377V\302\377\377X\303\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377>\211\263\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377\027[\207\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377R\300\376\377R\300\376\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377B\270\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377\037\222\335\377\036Qn\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377V\302\377\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\3771\210\275\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\030\230\355\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377D\266\372\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\266\372\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3772\260\377\377/\256\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\032e\225\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377T\301\376\377J\274\377\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377\036Qn\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377C\267\373\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3775\262\377\3777\262\377\3777\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\036k\234\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\032\225\347\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377>\211\263\377J\274\377\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377D\266\372\377\006\016\024\377\035Wz\377D\266\372\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377L\275\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\036k\234\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377I\274\377\377Q\277\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377V\302\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377G\272\377\377G\272\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\376\377&p\234\3771\210\275\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\0245H\377\003\004\006\377\031Fb\377!\216\323\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\022\231\364\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\036Qn\377>\211\263\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377G\272\377\377L\275\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3771\210\275\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\0245H\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377\037\222\335\377\030\230\355\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\035Wz\377D\266\372\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\377\037\222\335\377&p\234\377\036Qn\377\024.=\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\021\233\371\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377D\266\372\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377G\272\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&\212\311\377*\253\377\377/\256\377\377(\252\376\377+\254\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377I\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377G\272\377\377G\272\377\377G\272\377\377B\270\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377?\267\377\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\017\236\377\377\037\222\335\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377D\266\372\377\000\000\000\377\t\033'\377\017$0\377\031Fb\377\036Qn\377&p\234\377&p\234\3773x\236\377&\212\311\377&\212\311\377&\212\311\377D\266\372\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377\037\222\335\377&\212\311\377&p\234\377&p\234\377\027[\207\377\031Fb\377\031Fb\377\017$0\377\017$0\377\b\027 \377\000\000\000\377\035Wz\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3771\257\377\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\031Fb\377\036k\234\377(\252\376\377*\253\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377%\250\376\377%\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377\035Wz\377\017$0\377\000\000\000\377:\262\373\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377J\274\377\377J\274\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377=\265\376\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377:\263\374\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\377\017$0\377\000\000\000\377\001\002\002\377\000\000\000\377\b\027 \377\025<S\377\036k\234\377\037\222\335\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\3778\263\376\377D\271\376\377:\262\373\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377H\273\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\377\036k\234\377\027[\207\3771\210\275\377(\252\376\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377%\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\022\231\364\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377D\271\376\3773x\236\377\b\027 \3771\210\275\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377D\271\376\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377<\265\376\3778\263\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\3773x\236\377\017$0\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\024.=\377\000\000\000\377\000\000\000\377\b\024\032\3778\263\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\017$0\377\031Fb\377:\262\373\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3771\210\275\377@\267\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377&\212\311\3773x\236\377&p\234\377&p\234\377\035Wz\377\031Fb\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377@\267\377\3773x\236\377\035Wz\377&p\234\377&p\234\377&\212\311\377&\212\311\377\032\225\347\377<\265\376\377:\263\374\3775\262\377\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377!\216\323\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377:\262\373\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377B\270\376\377?\267\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\021\233\371\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377:\262\373\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377?\267\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377?\267\377\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036k\234\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\3778\263\376\377<\265\376\377=\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377!\216\323\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\032e\225\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\377;\264\376\377/\256\377\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\3771\257\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377%\250\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377&\212\311\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3778\263\376\3777\262\377\3775\262\377\3775\262\377\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\3775\262\377\3772\260\377\377\035Wz\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\3771\257\376\3777\262\377\3771\257\377\3777\262\377\3775\262\377\3772\260\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3775\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377\036Qn\377\037\222\335\377/\256\377\3771\257\377\377/\256\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377/\256\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377/\256\377\377/\256\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\030\230\355\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377/\256\377\377(\252\376\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377!\247\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377&\212\311\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377!\216\323\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\216\323\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\022\231\364\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\036Qn\377'\252\376\377(\252\376\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\025<S\377\003\004\006\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\030\230\355\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\006\016\024\377\037\222\335\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\030\230\355\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\032\225\347\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\016\235\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\031Fb\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377!\247\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\030\230\355\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\027[\207\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\027[\207\377\032\225\347\377#\250\376\377\037\246\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\021\233\371\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\021\233\371\377\036k\234\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\027[\207\377!\216\323\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\032\243\376\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\030\230\355\377\036k\234\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\025<S\377\032e\225\377\037\222\335\377\032\243\376\377\033\244\376\377\033\244\376\377\032\243\376\377\016\234\375\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\022\231\364\377\036k\234\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\025<S\377\035Wz\377\036k\234\377&\212\311\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\027\242\377\377\021\237\377\377\027\242\377\377!\216\323\377&\212\311\377\036k\234\377\032e\225\377\031Fb\377\024.=\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000" .space 3 .subsections_via_symbols
the_stack_data/234532.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__literal16,16byte_literals .p2align 4 ## -- Begin function print_num_g LCPI0_0: .quad 0x8000000000000000 ## double -0 .quad 0x8000000000000000 ## double -0 .section __TEXT,__text,regular,pure_instructions .p2align 4, 0x90 _print_num_g: ## @print_num_g .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $40, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %r9d, %r15d movl %r8d, %r12d movl %ecx, -52(%rbp) ## 4-byte Spill movq %rdx, -80(%rbp) ## 8-byte Spill movq %rsi, -72(%rbp) ## 8-byte Spill movq %rdi, -64(%rbp) ## 8-byte Spill movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -48(%rbp) movq _PRINT_FLOAT_BUFSZ@GOTPCREL(%rip), %rax movl (%rax), %r14d movq %r14, %rax callq ____chkstk_darwin addq $15, %rax andq $-16, %rax subq %rax, %rsp movq %rsp, %r13 testl %r15d, %r15d movl $6, %edx cmovnel %r12d, %edx movapd LCPI0_0(%rip), %xmm1 ## xmm1 = [-0.0E+0,-0.0E+0] xorpd %xmm0, %xmm1 xorl %ebx, %ebx ucomisd %xmm0, %xmm1 seta %bl testl %edx, %edx movl $1, %eax cmovel %eax, %edx maxsd %xmm0, %xmm1 movq %r13, %rdi movl %r14d, %esi movapd %xmm1, %xmm0 callq _print_float_g ## kill: def $eax killed $eax def $rax movq -64(%rbp), %rdi ## 8-byte Reload movq -72(%rbp), %rsi ## 8-byte Reload movq -80(%rbp), %rdx ## 8-byte Reload movl -52(%rbp), %ecx ## 4-byte Reload movl $1, %r8d xorl %r9d, %r9d pushq %rax pushq %r13 pushq %rbx pushq $0 movl 40(%rbp), %eax pushq %rax movl 32(%rbp), %eax pushq %rax movl 24(%rbp), %eax pushq %rax movl 16(%rbp), %eax pushq %rax callq _print_num addq $64, %rsp movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -48(%rbp), %rax jne LBB0_2 ## %bb.1: leaq -40(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB0_2: callq ___stack_chk_fail .cfi_endproc ## -- End function .comm _PRINT_FLOAT_BUFSZ,4,2 ## @PRINT_FLOAT_BUFSZ .no_dead_strip _print_num_g .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function print_num_g _print_num_g: ; @print_num_g .cfi_startproc ; %bb.0: stp x28, x27, [sp, #-96]! ; 16-byte Folded Spill .cfi_def_cfa_offset 96 stp x26, x25, [sp, #16] ; 16-byte Folded Spill stp x24, x23, [sp, #32] ; 16-byte Folded Spill stp x22, x21, [sp, #48] ; 16-byte Folded Spill stp x20, x19, [sp, #64] ; 16-byte Folded Spill stp x29, x30, [sp, #80] ; 16-byte Folded Spill add x29, sp, #80 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 .cfi_offset w27, -88 .cfi_offset w28, -96 sub sp, sp, #16 mov x19, x7 mov x20, x6 mov x21, x3 mov x22, x2 mov x23, x1 mov x24, x0 ldp w26, w27, [x29, #16] Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] stur x8, [x29, #-88] Lloh3: adrp x8, _PRINT_FLOAT_BUFSZ@GOTPAGE Lloh4: ldr x8, [x8, _PRINT_FLOAT_BUFSZ@GOTPAGEOFF] Lloh5: ldr w1, [x8] mov x9, x1 Lloh6: adrp x16, ___chkstk_darwin@GOTPAGE Lloh7: ldr x16, [x16, ___chkstk_darwin@GOTPAGEOFF] blr x16 mov x8, sp add x9, x1, #15 and x9, x9, #0x1fffffff0 sub x25, x8, x9 mov sp, x25 mov w8, #6 cmp w5, #0 csel w8, w8, w4, eq cmp w8, #0 csinc w2, w8, wzr, ne fcmp d0, #0.0 cset w28, mi fneg d1, d0 fcsel d0, d1, d0, mi mov x0, x25 ; kill: def $w1 killed $w1 killed $x1 bl _print_float_g sub sp, sp, #32 str w0, [sp, #24] str x25, [sp, #16] stp wzr, w28, [sp, #8] stp w26, w27, [sp] mov x0, x24 mov x1, x23 mov x2, x22 mov x3, x21 mov w4, #1 mov w5, #0 mov x6, x20 mov x7, x19 bl _print_num add sp, sp, #32 ldur x8, [x29, #-88] Lloh8: adrp x9, ___stack_chk_guard@GOTPAGE Lloh9: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh10: ldr x9, [x9] cmp x9, x8 b.ne LBB0_2 ; %bb.1: sub sp, x29, #80 ldp x29, x30, [sp, #80] ; 16-byte Folded Reload ldp x20, x19, [sp, #64] ; 16-byte Folded Reload ldp x22, x21, [sp, #48] ; 16-byte Folded Reload ldp x24, x23, [sp, #32] ; 16-byte Folded Reload ldp x26, x25, [sp, #16] ; 16-byte Folded Reload ldp x28, x27, [sp], #96 ; 16-byte Folded Reload ret LBB0_2: bl ___stack_chk_fail .loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10 .loh AdrpLdrGot Lloh6, Lloh7 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _PRINT_FLOAT_BUFSZ,4,2 ; @PRINT_FLOAT_BUFSZ .no_dead_strip _print_num_g .subsections_via_symbols
AnghaBench/freebsd/contrib/ldns/compat/extr_snprintf.c_print_num_g.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function gmc_motion _gmc_motion: ## @gmc_motion .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $104, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rcx, -120(%rbp) ## 8-byte Spill movq %rdx, -104(%rbp) ## 8-byte Spill movq %rsi, %r9 movq %rsi, -128(%rbp) ## 8-byte Spill movq %rdi, %r13 movq 16(%rdi), %rax movq (%rax), %rcx movq 24(%rdi), %rax movl 32(%rdi), %edx movq (%rax), %rsi movq 8(%rax), %rdi movl (%rsi), %ebx movq %rbx, -88(%rbp) ## 8-byte Spill movl 4(%rsi), %esi movq %rsi, -56(%rbp) ## 8-byte Spill movl %edx, %eax imull %ebx, %eax movl 36(%r13), %ebx movl %ebx, %r12d imull %esi, %r12d addl %eax, %r12d shll $4, %r12d addl (%rcx), %r12d movl (%rdi), %eax movq %rax, -72(%rbp) ## 8-byte Spill movl 4(%rdi), %esi movq %rsi, -136(%rbp) ## 8-byte Spill imull %eax, %edx imull %esi, %ebx addl %edx, %ebx shll $4, %ebx addl 4(%rcx), %ebx movl (%r13), %ecx leal 1(%rcx), %r10d movq %r10, -96(%rbp) ## 8-byte Spill addl %ecx, %ecx orb $1, %cl movl $1, %edx ## kill: def $cl killed $cl killed $rcx shll %cl, %edx movslq %edx, %r15 movq %r15, %r11 subq 48(%r13), %r11 movl 4(%r13), %edx movl %edx, -48(%rbp) ## 4-byte Spill movl 8(%r13), %eax movl %eax, -60(%rbp) ## 4-byte Spill movq %r8, -112(%rbp) ## 8-byte Spill movq (%r8), %rsi movq %rsi, -80(%rbp) ## 8-byte Spill movl 40(%r13), %eax movl 44(%r13), %r14d movq %r9, %rdi movl $16, %ecx movl %r12d, %r8d movl %ebx, %r9d pushq %r14 pushq %rax pushq %r11 pushq %r10 pushq -136(%rbp) ## 8-byte Folded Reload pushq -72(%rbp) ## 8-byte Folded Reload pushq -56(%rbp) ## 8-byte Folded Reload pushq -88(%rbp) ## 8-byte Folded Reload callq *56(%r13) addq $64, %rsp movq -128(%rbp), %rdi ## 8-byte Reload addq $32, %rdi movq 24(%r13), %rax movq (%rax), %rcx movq 8(%rax), %rdx movl (%rcx), %r11d movl 4(%rcx), %r10d leal (%r12,%r11,8), %r8d movl (%rdx), %eax movl 4(%rdx), %r14d leal (%rbx,%rax,8), %r9d movq %r15, -88(%rbp) ## 8-byte Spill movq %r15, %rbx subq 48(%r13), %rbx movl 40(%r13), %r15d movl 44(%r13), %r12d movq -80(%rbp), %rsi ## 8-byte Reload movl -48(%rbp), %edx ## 4-byte Reload movl $16, %ecx pushq %r12 pushq %r15 pushq %rbx pushq -96(%rbp) ## 8-byte Folded Reload pushq %r14 pushq %rax pushq %r10 pushq %r11 callq *56(%r13) addq $64, %rsp movq _CONFIG_GRAY@GOTPCREL(%rip), %rax cmpq $0, (%rax) je LBB0_2 ## %bb.1: movq 64(%r13), %rax movq _AV_CODEC_FLAG_GRAY@GOTPCREL(%rip), %rcx movl (%rcx), %ecx testl %ecx, (%rax) je LBB0_2 ## %bb.3: addq $104, %rsp jmp LBB0_4 LBB0_2: movq 16(%r13), %rax movq 24(%r13), %rcx movq 8(%rax), %rdx movl 32(%r13), %esi movq (%rcx), %rax movq 8(%rcx), %rcx movl (%rax), %edi movq %rdi, -56(%rbp) ## 8-byte Spill movl 4(%rax), %ebx movq %rbx, -48(%rbp) ## 8-byte Spill movl %esi, %eax imull %edi, %eax movl 36(%r13), %r14d movl %r14d, %r12d imull %ebx, %r12d addl %eax, %r12d shll $3, %r12d addl (%rdx), %r12d movl (%rcx), %eax movq %rax, -80(%rbp) ## 8-byte Spill movl 4(%rcx), %ecx movq %rcx, -72(%rbp) ## 8-byte Spill imull %eax, %esi imull %ecx, %r14d addl %esi, %r14d shll $3, %r14d addl 4(%rdx), %r14d movq -112(%rbp), %r15 ## 8-byte Reload movq 8(%r15), %rsi movq -88(%rbp), %rbx ## 8-byte Reload movq %rbx, %rax subq 48(%r13), %rax movl 40(%r13), %r10d incl %r10d sarl %r10d movl 44(%r13), %r11d incl %r11d sarl %r11d movq -104(%rbp), %rdi ## 8-byte Reload movl -60(%rbp), %edx ## 4-byte Reload movl $8, %ecx movl %r12d, %r8d movl %r14d, %r9d pushq %r11 pushq %r10 pushq %rax pushq -96(%rbp) ## 8-byte Folded Reload pushq -72(%rbp) ## 8-byte Folded Reload pushq -80(%rbp) ## 8-byte Folded Reload pushq -48(%rbp) ## 8-byte Folded Reload pushq -56(%rbp) ## 8-byte Folded Reload callq *56(%r13) addq $64, %rsp movq 16(%r15), %rsi movq 24(%r13), %rax movq (%rax), %rcx movq 8(%rax), %rdx movl (%rcx), %eax movq %rax, -56(%rbp) ## 8-byte Spill movl 4(%rcx), %eax movq %rax, -48(%rbp) ## 8-byte Spill movl (%rdx), %r15d movl 4(%rdx), %r11d subq 48(%r13), %rbx movl 40(%r13), %eax incl %eax sarl %eax movl 44(%r13), %r10d incl %r10d sarl %r10d movq -120(%rbp), %rdi ## 8-byte Reload movl -60(%rbp), %edx ## 4-byte Reload movl $8, %ecx movl %r12d, %r8d movl %r14d, %r9d pushq %r10 pushq %rax pushq %rbx pushq -96(%rbp) ## 8-byte Folded Reload pushq %r11 pushq %r15 pushq -48(%rbp) ## 8-byte Folded Reload pushq -56(%rbp) ## 8-byte Folded Reload callq *56(%r13) addq $168, %rsp LBB0_4: popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _CONFIG_GRAY,8,3 ## @CONFIG_GRAY .comm _AV_CODEC_FLAG_GRAY,4,2 ## @AV_CODEC_FLAG_GRAY .no_dead_strip _gmc_motion .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function gmc_motion _gmc_motion: ; @gmc_motion .cfi_startproc ; %bb.0: sub sp, sp, #144 .cfi_def_cfa_offset 144 stp x28, x27, [sp, #48] ; 16-byte Folded Spill stp x26, x25, [sp, #64] ; 16-byte Folded Spill stp x24, x23, [sp, #80] ; 16-byte Folded Spill stp x22, x21, [sp, #96] ; 16-byte Folded Spill stp x20, x19, [sp, #112] ; 16-byte Folded Spill stp x29, x30, [sp, #128] ; 16-byte Folded Spill add x29, sp, #128 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 .cfi_offset w27, -88 .cfi_offset w28, -96 mov x22, x4 stp x2, x3, [sp, #32] ; 16-byte Folded Spill mov x26, x1 mov x21, x0 ldp w8, w24, [x0] ldr w20, [x0, #8] ldr x25, [x4] ldp x9, x10, [x0, #16] ldr x9, [x9] ldp x11, x10, [x10] ldp w6, w7, [x11] ldp w11, w12, [x0, #32] mul w13, w11, w6 madd w13, w12, w7, w13 ldp w14, w9, [x9] add w27, w14, w13, lsl #4 ldp w13, w10, [x10] mul w11, w13, w11 madd w11, w10, w12, w11 add w28, w9, w11, lsl #4 add w19, w8, #1 mov w9, #1 mov w11, #1 bfi w11, w8, #1, #31 lsl w8, w9, w11 sxtw x23, w8 ldp x9, x8, [x0, #48] sub x9, x23, x9 ldp w11, w12, [x0, #40] stp w11, w12, [sp, #24] stp w10, w19, [sp, #4] str w13, [sp] str x9, [sp, #16] mov x0, x1 mov x1, x25 mov x2, x24 mov w3, #16 mov x4, x27 mov x5, x28 blr x8 add x0, x26, #32 ldr x8, [x21, #24] ldp x9, x8, [x8] ldp w6, w7, [x9] add w4, w27, w6, lsl #3 ldp w9, w8, [x8] add w5, w28, w9, lsl #3 ldp x11, x10, [x21, #48] sub x11, x23, x11 ldp w12, w13, [x21, #40] stp w12, w13, [sp, #24] str x11, [sp, #16] stp w8, w19, [sp, #4] str w9, [sp] mov x1, x25 mov x2, x24 mov w3, #16 blr x10 Lloh0: adrp x8, _CONFIG_GRAY@GOTPAGE Lloh1: ldr x8, [x8, _CONFIG_GRAY@GOTPAGEOFF] Lloh2: ldr x8, [x8] cbz x8, LBB0_2 ; %bb.1: ldr x8, [x21, #64] ldr w8, [x8] Lloh3: adrp x9, _AV_CODEC_FLAG_GRAY@GOTPAGE Lloh4: ldr x9, [x9, _AV_CODEC_FLAG_GRAY@GOTPAGEOFF] Lloh5: ldr w9, [x9] tst w9, w8 b.ne LBB0_3 LBB0_2: ldp x8, x9, [x21, #16] ldr x8, [x8, #8] ldp x10, x9, [x9] ldp w6, w7, [x10] ldp w10, w11, [x21, #32] mul w12, w10, w6 madd w12, w11, w7, w12 ldp w13, w8, [x8] add w24, w13, w12, lsl #3 ldp w12, w9, [x9] mul w10, w12, w10 madd w10, w9, w11, w10 add w25, w8, w10, lsl #3 ldr x1, [x22, #8] ldp x10, x8, [x21, #48] sub x10, x23, x10 ldp w11, w13, [x21, #40] add w11, w11, #1 asr w11, w11, #1 add w13, w13, #1 asr w13, w13, #1 stp w11, w13, [sp, #24] str x10, [sp, #16] stp w9, w19, [sp, #4] str w12, [sp] ldr x0, [sp, #32] ; 8-byte Folded Reload mov x2, x20 mov w3, #8 mov x4, x24 mov x5, x25 blr x8 ldr x1, [x22, #16] ldr x8, [x21, #24] ldp x9, x8, [x8] ldp w6, w7, [x9] ldp w9, w8, [x8] ldp x11, x10, [x21, #48] sub x11, x23, x11 ldp w12, w13, [x21, #40] add w12, w12, #1 asr w12, w12, #1 add w13, w13, #1 asr w13, w13, #1 stp w12, w13, [sp, #24] str x11, [sp, #16] stp w8, w19, [sp, #4] str w9, [sp] ldr x0, [sp, #40] ; 8-byte Folded Reload mov x2, x20 mov w3, #8 mov x4, x24 mov x5, x25 blr x10 LBB0_3: ldp x29, x30, [sp, #128] ; 16-byte Folded Reload ldp x20, x19, [sp, #112] ; 16-byte Folded Reload ldp x22, x21, [sp, #96] ; 16-byte Folded Reload ldp x24, x23, [sp, #80] ; 16-byte Folded Reload ldp x26, x25, [sp, #64] ; 16-byte Folded Reload ldp x28, x27, [sp, #48] ; 16-byte Folded Reload add sp, sp, #144 ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .cfi_endproc ; -- End function .comm _CONFIG_GRAY,8,3 ; @CONFIG_GRAY .comm _AV_CODEC_FLAG_GRAY,4,2 ; @AV_CODEC_FLAG_GRAY .no_dead_strip _gmc_motion .subsections_via_symbols
AnghaBench/FFmpeg/libavcodec/extr_mpegvideo_motion.c_gmc_motion.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _getBuckets ## -- Begin function getBuckets .p2align 4, 0x90 _getBuckets: ## @getBuckets .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $24, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %r9d, %r14d movl %r8d, %r13d movl %ecx, %ebx movq %rsi, %r15 movq %rdi, %r12 movl %ecx, %r9d testl %ecx, %ecx js LBB0_2 ## %bb.1: leaq 4(,%r9,4), %rsi movq %r15, %rdi movq %r9, -56(%rbp) ## 8-byte Spill movl %edx, -44(%rbp) ## 4-byte Spill callq ___bzero movl -44(%rbp), %edx ## 4-byte Reload movq -56(%rbp), %r9 ## 8-byte Reload LBB0_2: testl %edx, %edx jle LBB0_10 ## %bb.3: movl %edx, %eax cmpl $1, %edx jne LBB0_13 ## %bb.4: xorl %edi, %edi LBB0_5: testb $1, %al je LBB0_10 ## %bb.6: cmpl $4, %r13d jne LBB0_7 ## %bb.8: movl (%r12,%rdi,4), %eax jmp LBB0_9 LBB0_13: movl %eax, %edx andl $-2, %edx xorl %edi, %edi jmp LBB0_14 .p2align 4, 0x90 LBB0_19: ## in Loop: Header=BB0_14 Depth=1 movl 4(%r12,%rdi,4), %esi LBB0_20: ## in Loop: Header=BB0_14 Depth=1 movslq %esi, %rsi incl (%r15,%rsi,4) addq $2, %rdi cmpq %rdi, %rdx je LBB0_5 LBB0_14: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r13d jne LBB0_16 ## %bb.15: ## in Loop: Header=BB0_14 Depth=1 movl (%r12,%rdi,4), %esi jmp LBB0_17 .p2align 4, 0x90 LBB0_16: ## in Loop: Header=BB0_14 Depth=1 movzbl (%r12,%rdi), %esi LBB0_17: ## in Loop: Header=BB0_14 Depth=1 movslq %esi, %rsi incl (%r15,%rsi,4) cmpl $4, %r13d je LBB0_19 ## %bb.18: ## in Loop: Header=BB0_14 Depth=1 movzbl 1(%r12,%rdi), %esi jmp LBB0_20 LBB0_7: movzbl (%r12,%rdi), %eax LBB0_9: cltq incl (%r15,%rax,4) LBB0_10: testl %ebx, %ebx js LBB0_26 ## %bb.11: incq %r9 movl %r9d, %r8d andl $3, %r8d cmpl $3, %ebx jae LBB0_21 ## %bb.12: xorl %ecx, %ecx xorl %edx, %edx jmp LBB0_23 LBB0_21: andl $-4, %r9d xorl %ecx, %ecx xorl %esi, %esi .p2align 4, 0x90 LBB0_22: ## =>This Inner Loop Header: Depth=1 movl (%r15,%rcx,4), %edi addl %esi, %edi movl 4(%r15,%rcx,4), %eax addl %edi, %eax movl 8(%r15,%rcx,4), %ebx addl %eax, %ebx movl 12(%r15,%rcx,4), %edx addl %ebx, %edx testl %r14d, %r14d cmovnel %edi, %esi movl %esi, (%r15,%rcx,4) cmovnel %eax, %edi movl %edi, 4(%r15,%rcx,4) cmovnel %ebx, %eax cmovnel %edx, %ebx movl %eax, 8(%r15,%rcx,4) movl %ebx, 12(%r15,%rcx,4) addq $4, %rcx movl %edx, %esi cmpq %rcx, %r9 jne LBB0_22 LBB0_23: testq %r8, %r8 je LBB0_26 ## %bb.24: leaq (%r15,%rcx,4), %rcx xorl %esi, %esi .p2align 4, 0x90 LBB0_25: ## =>This Inner Loop Header: Depth=1 movl (%rcx,%rsi,4), %eax addl %edx, %eax testl %r14d, %r14d cmovnel %eax, %edx movl %edx, (%rcx,%rsi,4) incq %rsi movl %eax, %edx cmpq %rsi, %r8 jne LBB0_25 LBB0_26: addq $24, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .globl _induceSAl ## -- Begin function induceSAl .p2align 4, 0x90 _induceSAl: ## @induceSAl .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $24, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %r8d, -44(%rbp) ## 4-byte Spill movq %rcx, %rbx movq %rdx, %r14 movq %rsi, %r15 movq %rdi, %r12 movl %r9d, %edi movl %r9d, %r13d testl %r9d, %r9d js LBB1_2 ## %bb.1: leaq 4(,%r13,4), %rsi movl %edi, -56(%rbp) ## 4-byte Spill movq %rbx, %rdi callq ___bzero movl -56(%rbp), %edi ## 4-byte Reload LBB1_2: movl 16(%rbp), %r8d movl -44(%rbp), %esi ## 4-byte Reload movl %esi, %r9d testl %esi, %esi jle LBB1_10 ## %bb.3: cmpl $1, %esi jne LBB1_13 ## %bb.4: xorl %edx, %edx LBB1_5: testb $1, %r9b je LBB1_10 ## %bb.6: cmpl $4, %r8d jne LBB1_7 ## %bb.8: movl (%r14,%rdx,4), %eax jmp LBB1_9 LBB1_13: movl %r9d, %eax andl $-2, %eax xorl %edx, %edx jmp LBB1_14 .p2align 4, 0x90 LBB1_19: ## in Loop: Header=BB1_14 Depth=1 movl 4(%r14,%rdx,4), %ecx LBB1_20: ## in Loop: Header=BB1_14 Depth=1 movslq %ecx, %rcx incl (%rbx,%rcx,4) addq $2, %rdx cmpq %rdx, %rax je LBB1_5 LBB1_14: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r8d jne LBB1_16 ## %bb.15: ## in Loop: Header=BB1_14 Depth=1 movl (%r14,%rdx,4), %ecx jmp LBB1_17 .p2align 4, 0x90 LBB1_16: ## in Loop: Header=BB1_14 Depth=1 movzbl (%r14,%rdx), %ecx LBB1_17: ## in Loop: Header=BB1_14 Depth=1 movslq %ecx, %rcx incl (%rbx,%rcx,4) cmpl $4, %r8d je LBB1_19 ## %bb.18: ## in Loop: Header=BB1_14 Depth=1 movzbl 1(%r14,%rdx), %ecx jmp LBB1_20 LBB1_7: movzbl (%r14,%rdx), %eax LBB1_9: cltq incl (%rbx,%rax,4) LBB1_10: testl %edi, %edi js LBB1_26 ## %bb.11: movq %r12, -56(%rbp) ## 8-byte Spill movl 24(%rbp), %r10d incq %r13 movl %r13d, %r11d andl $3, %r11d cmpl $3, %edi jae LBB1_21 ## %bb.12: xorl %edi, %edi xorl %eax, %eax jmp LBB1_23 LBB1_21: andl $-4, %r13d xorl %edi, %edi xorl %ecx, %ecx .p2align 4, 0x90 LBB1_22: ## =>This Inner Loop Header: Depth=1 movl (%rbx,%rdi,4), %edx addl %ecx, %edx movl 4(%rbx,%rdi,4), %esi addl %edx, %esi movl 8(%rbx,%rdi,4), %r12d addl %esi, %r12d movl 12(%rbx,%rdi,4), %eax addl %r12d, %eax testl %r10d, %r10d cmovnel %edx, %ecx movl %ecx, (%rbx,%rdi,4) cmovnel %esi, %edx movl %edx, 4(%rbx,%rdi,4) cmovnel %r12d, %esi cmovnel %eax, %r12d movl %esi, 8(%rbx,%rdi,4) movl %r12d, 12(%rbx,%rdi,4) addq $4, %rdi movl %eax, %ecx cmpq %rdi, %r13 jne LBB1_22 LBB1_23: testq %r11, %r11 movq -56(%rbp), %r12 ## 8-byte Reload movl -44(%rbp), %esi ## 4-byte Reload je LBB1_26 ## %bb.24: leaq (%rbx,%rdi,4), %rcx xorl %edi, %edi .p2align 4, 0x90 LBB1_25: ## =>This Inner Loop Header: Depth=1 movl (%rcx,%rdi,4), %edx addl %eax, %edx testl %r10d, %r10d cmovnel %edx, %eax movl %eax, (%rcx,%rdi,4) incq %rdi movl %edx, %eax cmpq %rdi, %r11 jne LBB1_25 LBB1_26: testl %esi, %esi jle LBB1_35 ## %bb.27: xorl %edx, %edx leaq _mask(%rip), %r10 jmp LBB1_28 LBB1_32: ## in Loop: Header=BB1_28 Depth=1 movzbl (%r14,%rax), %ecx LBB1_33: ## in Loop: Header=BB1_28 Depth=1 movslq %ecx, %rax movslq (%rbx,%rax,4), %rcx leal 1(%rcx), %edi movl %edi, (%rbx,%rax,4) movl %esi, (%r15,%rcx,4) LBB1_34: ## in Loop: Header=BB1_28 Depth=1 incq %rdx cmpq %rdx, %r9 je LBB1_35 LBB1_28: ## =>This Inner Loop Header: Depth=1 movl (%r15,%rdx,4), %esi testl %esi, %esi jle LBB1_34 ## %bb.29: ## in Loop: Header=BB1_28 Depth=1 decl %esi movl %esi, %eax movq %rax, %rdi shrq $3, %rdi movl %eax, %ecx andl $7, %ecx movzbl (%rcx,%r10), %ecx testb %cl, (%r12,%rdi) jne LBB1_34 ## %bb.30: ## in Loop: Header=BB1_28 Depth=1 cmpl $4, %r8d jne LBB1_32 ## %bb.31: ## in Loop: Header=BB1_28 Depth=1 movl (%r14,%rax,4), %ecx jmp LBB1_33 LBB1_35: addq $24, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .globl _induceSAs ## -- Begin function induceSAs .p2align 4, 0x90 _induceSAs: ## @induceSAs .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $24, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %r9d, %ebx movq %rcx, %r12 movq %rdx, %r14 movq %rsi, %r15 movq %rdi, -56(%rbp) ## 8-byte Spill movl %r9d, %r13d testl %r9d, %r9d movl %r8d, -44(%rbp) ## 4-byte Spill js LBB2_2 ## %bb.1: leaq 4(,%r13,4), %rsi movq %r12, %rdi callq ___bzero movl -44(%rbp), %r8d ## 4-byte Reload LBB2_2: movl 16(%rbp), %edi movl %r8d, %r11d testl %r8d, %r8d jle LBB2_10 ## %bb.3: cmpl $1, %r8d jne LBB2_13 ## %bb.4: xorl %edx, %edx LBB2_5: testb $1, %r11b je LBB2_10 ## %bb.6: cmpl $4, %edi jne LBB2_7 ## %bb.8: movl (%r14,%rdx,4), %eax jmp LBB2_9 LBB2_13: movl %r11d, %eax andl $-2, %eax xorl %edx, %edx jmp LBB2_14 .p2align 4, 0x90 LBB2_19: ## in Loop: Header=BB2_14 Depth=1 movl 4(%r14,%rdx,4), %esi LBB2_20: ## in Loop: Header=BB2_14 Depth=1 movslq %esi, %rsi incl (%r12,%rsi,4) addq $2, %rdx cmpq %rdx, %rax je LBB2_5 LBB2_14: ## =>This Inner Loop Header: Depth=1 cmpl $4, %edi jne LBB2_16 ## %bb.15: ## in Loop: Header=BB2_14 Depth=1 movl (%r14,%rdx,4), %esi jmp LBB2_17 .p2align 4, 0x90 LBB2_16: ## in Loop: Header=BB2_14 Depth=1 movzbl (%r14,%rdx), %esi LBB2_17: ## in Loop: Header=BB2_14 Depth=1 movslq %esi, %rsi incl (%r12,%rsi,4) cmpl $4, %edi je LBB2_19 ## %bb.18: ## in Loop: Header=BB2_14 Depth=1 movzbl 1(%r14,%rdx), %esi jmp LBB2_20 LBB2_7: movzbl (%r14,%rdx), %eax LBB2_9: cltq incl (%r12,%rax,4) LBB2_10: testl %ebx, %ebx js LBB2_26 ## %bb.11: movl 24(%rbp), %r9d incq %r13 movl %r13d, %r10d andl $3, %r10d cmpl $3, %ebx jae LBB2_21 ## %bb.12: xorl %edi, %edi xorl %eax, %eax jmp LBB2_23 LBB2_21: andl $-4, %r13d xorl %edi, %edi xorl %edx, %edx .p2align 4, 0x90 LBB2_22: ## =>This Inner Loop Header: Depth=1 movl (%r12,%rdi,4), %esi addl %edx, %esi movl 4(%r12,%rdi,4), %ebx addl %esi, %ebx movl 8(%r12,%rdi,4), %ecx addl %ebx, %ecx movl 12(%r12,%rdi,4), %eax addl %ecx, %eax testl %r9d, %r9d cmovnel %esi, %edx movl %edx, (%r12,%rdi,4) cmovnel %ebx, %esi movl %esi, 4(%r12,%rdi,4) cmovnel %ecx, %ebx cmovnel %eax, %ecx movl %ebx, 8(%r12,%rdi,4) movl %ecx, 12(%r12,%rdi,4) addq $4, %rdi movl %eax, %edx cmpq %rdi, %r13 jne LBB2_22 LBB2_23: testq %r10, %r10 movl -44(%rbp), %r8d ## 4-byte Reload je LBB2_26 ## %bb.24: leaq (%r12,%rdi,4), %rdx xorl %edi, %edi .p2align 4, 0x90 LBB2_25: ## =>This Inner Loop Header: Depth=1 movl (%rdx,%rdi,4), %ecx addl %eax, %ecx testl %r9d, %r9d cmovnel %ecx, %eax movl %eax, (%rdx,%rdi,4) incq %rdi movl %ecx, %eax cmpq %rdi, %r10 jne LBB2_25 LBB2_26: testl %r8d, %r8d movq -56(%rbp), %rdx ## 8-byte Reload movl 16(%rbp), %r8d jle LBB2_35 ## %bb.27: incq %r11 leaq _mask(%rip), %r9 jmp LBB2_28 LBB2_32: ## in Loop: Header=BB2_28 Depth=1 movzbl (%r14,%rsi), %esi LBB2_33: ## in Loop: Header=BB2_28 Depth=1 movslq %esi, %rcx movslq (%r12,%rcx,4), %rsi leaq -1(%rsi), %rdi movl %edi, (%r12,%rcx,4) movl %eax, -4(%r15,%rsi,4) LBB2_34: ## in Loop: Header=BB2_28 Depth=1 decq %r11 cmpq $1, %r11 jbe LBB2_35 LBB2_28: ## =>This Inner Loop Header: Depth=1 leal -2(%r11), %eax movl (%r15,%rax,4), %eax testl %eax, %eax jle LBB2_34 ## %bb.29: ## in Loop: Header=BB2_28 Depth=1 decl %eax movl %eax, %esi movq %rsi, %rcx shrq $3, %rcx movl %esi, %edi andl $7, %edi movzbl (%rdi,%r9), %ebx testb %bl, (%rdx,%rcx) je LBB2_34 ## %bb.30: ## in Loop: Header=BB2_28 Depth=1 cmpl $4, %r8d jne LBB2_32 ## %bb.31: ## in Loop: Header=BB2_28 Depth=1 movl (%r14,%rsi,4), %esi jmp LBB2_33 LBB2_35: addq $24, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__literal16,16byte_literals .p2align 4 ## -- Begin function SA_IS LCPI3_0: .long 4294967294 ## 0xfffffffe .long 4294967295 ## 0xffffffff .space 4 .space 4 .section __TEXT,__text,regular,pure_instructions .globl _SA_IS .p2align 4, 0x90 _SA_IS: ## @SA_IS .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $120, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %edx, %ebx leal 7(%rbx), %eax testl %edx, %edx cmovnsl %edx, %eax movl %r8d, %r12d ## kill: def $ecx killed $ecx def $rcx movq %rcx, -56(%rbp) ## 8-byte Spill movq %rsi, %r14 movq %rdi, %r15 sarl $3, %eax incl %eax movslq %eax, %rdi callq _malloc movq %rbx, %r8 movd %r8d, %xmm0 pshufd $80, %xmm0, %xmm0 ## xmm0 = xmm0[0,0,1,1] paddd LCPI3_0(%rip), %xmm0 pextrd $1, %xmm0, %ecx leal 7(%rcx), %edx testl %ecx, %ecx cmovnsl %ecx, %edx andl $-8, %edx movq %rcx, -112(%rbp) ## 8-byte Spill ## kill: def $ecx killed $ecx killed $rcx subl %edx, %ecx movslq %ecx, %rcx leaq _mask(%rip), %rbx movb (%rcx,%rbx), %dl movdqa %xmm0, %xmm1 psrad $31, %xmm1 psrld $29, %xmm1 paddd %xmm0, %xmm1 psrad $3, %xmm1 pmovsxdq %xmm1, %xmm0 movq %xmm0, %rcx movb $0, (%rax,%rcx) pextrq $1, %xmm0, %rcx orb %dl, (%rax,%rcx) cmpl $3, %r8d jl LBB3_10 ## %bb.1: leal -3(%r8), %edi incq %rdi jmp LBB3_2 .p2align 4, 0x90 LBB3_6: ## in Loop: Header=BB3_2 Depth=1 movl %edi, %edx movq %rdx, %rsi shrq $3, %rsi andl $7, %edx movzbl (%rdx,%rbx), %edx testb %dl, (%rax,%rsi) je LBB3_8 LBB3_7: ## in Loop: Header=BB3_2 Depth=1 movl %ecx, %esi andl $7, %esi shrl $3, %ecx movzbl (%rax,%rcx), %edx orb (%rsi,%rbx), %dl LBB3_9: ## in Loop: Header=BB3_2 Depth=1 movb %dl, (%rax,%rcx) decq %rdi jle LBB3_10 LBB3_2: ## =>This Inner Loop Header: Depth=1 leaq -1(%rdi), %rcx cmpl $4, %r12d jne LBB3_4 ## %bb.3: ## in Loop: Header=BB3_2 Depth=1 movl -4(%r15,%rdi,4), %edx movl (%r15,%rdi,4), %esi cmpl %esi, %edx jl LBB3_7 jmp LBB3_5 .p2align 4, 0x90 LBB3_4: ## in Loop: Header=BB3_2 Depth=1 movzbl -1(%r15,%rdi), %edx movzbl (%r15,%rdi), %esi cmpb %sil, %dl jb LBB3_7 LBB3_5: ## in Loop: Header=BB3_2 Depth=1 cmpl %esi, %edx je LBB3_6 LBB3_8: ## in Loop: Header=BB3_2 Depth=1 movl %ecx, %edx andl $7, %edx movzbl (%rdx,%rbx), %edx notb %dl shrl $3, %ecx andb (%rax,%rcx), %dl jmp LBB3_9 LBB3_10: movq %r8, -48(%rbp) ## 8-byte Spill movq %rax, -64(%rbp) ## 8-byte Spill movq -56(%rbp), %rbx ## 8-byte Reload movslq %ebx, %rax leaq 4(,%rax,4), %rdi movq %rdi, -152(%rbp) ## 8-byte Spill callq _malloc movq %rax, %r13 movl %ebx, %eax testl %ebx, %ebx movq %rax, -120(%rbp) ## 8-byte Spill js LBB3_12 ## %bb.11: leaq 4(,%rax,4), %rsi movq %r13, %rdi callq ___bzero LBB3_12: movq -56(%rbp), %rax ## 8-byte Reload incl %eax movq -48(%rbp), %r10 ## 8-byte Reload movl %r10d, %r11d testl %r10d, %r10d jle LBB3_20 ## %bb.13: cmpl $1, %r10d jne LBB3_23 ## %bb.14: xorl %ecx, %ecx LBB3_15: testb $1, %r11b je LBB3_20 ## %bb.16: cmpl $4, %r12d jne LBB3_17 ## %bb.18: movl (%r15,%rcx,4), %ecx jmp LBB3_19 LBB3_23: movl %r11d, %edx andl $-2, %edx xorl %ecx, %ecx jmp LBB3_24 .p2align 4, 0x90 LBB3_29: ## in Loop: Header=BB3_24 Depth=1 movl 4(%r15,%rcx,4), %esi LBB3_30: ## in Loop: Header=BB3_24 Depth=1 movslq %esi, %rsi incl (%r13,%rsi,4) addq $2, %rcx cmpq %rcx, %rdx je LBB3_15 LBB3_24: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r12d jne LBB3_26 ## %bb.25: ## in Loop: Header=BB3_24 Depth=1 movl (%r15,%rcx,4), %esi jmp LBB3_27 .p2align 4, 0x90 LBB3_26: ## in Loop: Header=BB3_24 Depth=1 movzbl (%r15,%rcx), %esi LBB3_27: ## in Loop: Header=BB3_24 Depth=1 movslq %esi, %rsi incl (%r13,%rsi,4) cmpl $4, %r12d je LBB3_29 ## %bb.28: ## in Loop: Header=BB3_24 Depth=1 movzbl 1(%r15,%rcx), %esi jmp LBB3_30 LBB3_17: movzbl (%r15,%rcx), %ecx LBB3_19: movslq %ecx, %rcx incl (%r13,%rcx,4) LBB3_20: movl %eax, %eax movq %rax, -104(%rbp) ## 8-byte Spill cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_36 ## %bb.21: movq -104(%rbp), %rdx ## 8-byte Reload leaq -1(%rdx), %rcx movl %edx, %eax andl $3, %eax cmpq $3, %rcx jae LBB3_31 ## %bb.22: xorl %edx, %edx xorl %ecx, %ecx jmp LBB3_33 LBB3_31: movq %rdx, %rsi ## kill: def $esi killed $esi killed $rsi def $rsi andl $-4, %esi xorl %edx, %edx xorl %ecx, %ecx .p2align 4, 0x90 LBB3_32: ## =>This Inner Loop Header: Depth=1 addl (%r13,%rdx,4), %ecx movl %ecx, (%r13,%rdx,4) addl 4(%r13,%rdx,4), %ecx movl %ecx, 4(%r13,%rdx,4) addl 8(%r13,%rdx,4), %ecx movl %ecx, 8(%r13,%rdx,4) addl 12(%r13,%rdx,4), %ecx movl %ecx, 12(%r13,%rdx,4) addq $4, %rdx cmpq %rdx, %rsi jne LBB3_32 LBB3_33: testq %rax, %rax je LBB3_36 ## %bb.34: leaq (,%rdx,4), %rdx addq %r13, %rdx xorl %esi, %esi .p2align 4, 0x90 LBB3_35: ## =>This Inner Loop Header: Depth=1 addl (%rdx,%rsi,4), %ecx movl %ecx, (%rdx,%rsi,4) incq %rsi cmpq %rsi, %rax jne LBB3_35 LBB3_36: testl %r10d, %r10d movq %r11, -88(%rbp) ## 8-byte Spill jle LBB3_37 ## %bb.38: leaq (,%r11,4), %rdx movq %r14, %rdi movl $255, %esi callq _memset movq -48(%rbp), %r10 ## 8-byte Reload cmpl $1, %r10d jne LBB3_40 ## %bb.39: movl $0, -92(%rbp) ## 4-byte Folded Spill movq -64(%rbp), %r8 ## 8-byte Reload leaq _mask(%rip), %r9 movq -88(%rbp), %r11 ## 8-byte Reload cmpl $0, -56(%rbp) ## 4-byte Folded Reload jns LBB3_50 jmp LBB3_51 LBB3_37: movl $0, -92(%rbp) ## 4-byte Folded Spill movq -64(%rbp), %r8 ## 8-byte Reload leaq _mask(%rip), %r9 cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_51 LBB3_50: movq -120(%rbp), %rax ## 8-byte Reload leaq 4(,%rax,4), %rsi movq %r13, %rdi callq ___bzero movq -88(%rbp), %r11 ## 8-byte Reload movq -48(%rbp), %r10 ## 8-byte Reload leaq _mask(%rip), %r9 movq -64(%rbp), %r8 ## 8-byte Reload LBB3_51: testl %r10d, %r10d jle LBB3_59 ## %bb.52: cmpl $1, %r10d jne LBB3_62 ## %bb.53: xorl %eax, %eax LBB3_54: testb $1, %r11b je LBB3_59 ## %bb.55: cmpl $4, %r12d jne LBB3_56 ## %bb.57: movl (%r15,%rax,4), %eax jmp LBB3_58 LBB3_40: movl $1, %eax movq -64(%rbp), %r8 ## 8-byte Reload leaq _mask(%rip), %r9 movq -88(%rbp), %r11 ## 8-byte Reload jmp LBB3_41 LBB3_45: ## in Loop: Header=BB3_41 Depth=1 movzbl (%r15,%rax), %ecx LBB3_46: ## in Loop: Header=BB3_41 Depth=1 movslq %ecx, %rcx movslq (%r13,%rcx,4), %rdx leaq -1(%rdx), %rsi movl %esi, (%r13,%rcx,4) movl %eax, -4(%r14,%rdx,4) LBB3_47: ## in Loop: Header=BB3_41 Depth=1 incq %rax cmpq %rax, %r11 je LBB3_48 LBB3_41: ## =>This Inner Loop Header: Depth=1 movl %eax, %ecx shrl $3, %ecx movl %eax, %edx andl $7, %edx movzbl (%rdx,%r9), %edx testb %dl, (%r8,%rcx) je LBB3_47 ## %bb.42: ## in Loop: Header=BB3_41 Depth=1 leaq -1(%rax), %rcx movl %ecx, %edx shrq $3, %rdx andl $7, %ecx movzbl (%rcx,%r9), %ecx testb %cl, (%r8,%rdx) jne LBB3_47 ## %bb.43: ## in Loop: Header=BB3_41 Depth=1 cmpl $4, %r12d jne LBB3_45 ## %bb.44: ## in Loop: Header=BB3_41 Depth=1 movl (%r15,%rax,4), %ecx jmp LBB3_46 LBB3_62: movl %r11d, %ecx andl $-2, %ecx xorl %eax, %eax jmp LBB3_63 .p2align 4, 0x90 LBB3_68: ## in Loop: Header=BB3_63 Depth=1 movl 4(%r15,%rax,4), %edx LBB3_69: ## in Loop: Header=BB3_63 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) addq $2, %rax cmpq %rax, %rcx je LBB3_54 LBB3_63: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r12d jne LBB3_65 ## %bb.64: ## in Loop: Header=BB3_63 Depth=1 movl (%r15,%rax,4), %edx jmp LBB3_66 .p2align 4, 0x90 LBB3_65: ## in Loop: Header=BB3_63 Depth=1 movzbl (%r15,%rax), %edx LBB3_66: ## in Loop: Header=BB3_63 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) cmpl $4, %r12d je LBB3_68 ## %bb.67: ## in Loop: Header=BB3_63 Depth=1 movzbl 1(%r15,%rax), %edx jmp LBB3_69 LBB3_48: movb $1, %al movl %eax, -92(%rbp) ## 4-byte Spill cmpl $0, -56(%rbp) ## 4-byte Folded Reload jns LBB3_50 jmp LBB3_51 LBB3_56: movzbl (%r15,%rax), %eax LBB3_58: cltq incl (%r13,%rax,4) LBB3_59: cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_75 ## %bb.60: movq -104(%rbp), %rdx ## 8-byte Reload leaq -1(%rdx), %rcx movl %edx, %eax andl $3, %eax cmpq $3, %rcx jae LBB3_70 ## %bb.61: xorl %ecx, %ecx xorl %edx, %edx jmp LBB3_72 LBB3_70: movq %rdx, %rsi ## kill: def $esi killed $esi killed $rsi def $rsi andl $-4, %esi xorl %ecx, %ecx xorl %edx, %edx .p2align 4, 0x90 LBB3_71: ## =>This Inner Loop Header: Depth=1 movl (%r13,%rcx,4), %edi addl %edx, %edi movl %edx, (%r13,%rcx,4) movl 4(%r13,%rcx,4), %edx addl %edi, %edx movl %edi, 4(%r13,%rcx,4) movl 8(%r13,%rcx,4), %edi addl %edx, %edi movl %edx, 8(%r13,%rcx,4) movl 12(%r13,%rcx,4), %edx addl %edi, %edx movl %edi, 12(%r13,%rcx,4) addq $4, %rcx cmpq %rcx, %rsi jne LBB3_71 LBB3_72: testq %rax, %rax je LBB3_75 ## %bb.73: leaq (,%rcx,4), %rcx addq %r13, %rcx xorl %esi, %esi .p2align 4, 0x90 LBB3_74: ## =>This Inner Loop Header: Depth=1 movl (%rcx,%rsi,4), %edi addl %edx, %edi movl %edx, (%rcx,%rsi,4) incq %rsi movl %edi, %edx cmpq %rsi, %rax jne LBB3_74 LBB3_75: testl %r10d, %r10d jle LBB3_84 ## %bb.76: xorl %eax, %eax jmp LBB3_77 LBB3_81: ## in Loop: Header=BB3_77 Depth=1 movzbl (%r15,%rdx), %edx LBB3_82: ## in Loop: Header=BB3_77 Depth=1 movslq %edx, %rdx movslq (%r13,%rdx,4), %rsi leal 1(%rsi), %edi movl %edi, (%r13,%rdx,4) movl %ecx, (%r14,%rsi,4) LBB3_83: ## in Loop: Header=BB3_77 Depth=1 incq %rax cmpq %rax, %r11 je LBB3_84 LBB3_77: ## =>This Inner Loop Header: Depth=1 movl (%r14,%rax,4), %ecx testl %ecx, %ecx jle LBB3_83 ## %bb.78: ## in Loop: Header=BB3_77 Depth=1 decl %ecx movl %ecx, %edx movq %rdx, %rsi shrq $3, %rsi movl %edx, %edi andl $7, %edi movzbl (%rdi,%r9), %ebx testb %bl, (%r8,%rsi) jne LBB3_83 ## %bb.79: ## in Loop: Header=BB3_77 Depth=1 cmpl $4, %r12d jne LBB3_81 ## %bb.80: ## in Loop: Header=BB3_77 Depth=1 movl (%r15,%rdx,4), %edx jmp LBB3_82 LBB3_84: cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_86 ## %bb.85: movq -120(%rbp), %rax ## 8-byte Reload leaq 4(,%rax,4), %rsi movq %r13, %rdi callq ___bzero movq -88(%rbp), %r11 ## 8-byte Reload movq -48(%rbp), %r10 ## 8-byte Reload leaq _mask(%rip), %r9 movq -64(%rbp), %r8 ## 8-byte Reload LBB3_86: testl %r10d, %r10d jle LBB3_94 ## %bb.87: cmpl $1, %r10d jne LBB3_97 ## %bb.88: xorl %eax, %eax LBB3_89: testb $1, %r11b je LBB3_94 ## %bb.90: cmpl $4, %r12d jne LBB3_91 ## %bb.92: movl (%r15,%rax,4), %eax jmp LBB3_93 LBB3_97: movl %r11d, %ecx andl $-2, %ecx xorl %eax, %eax jmp LBB3_98 .p2align 4, 0x90 LBB3_103: ## in Loop: Header=BB3_98 Depth=1 movl 4(%r15,%rax,4), %edx LBB3_104: ## in Loop: Header=BB3_98 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) addq $2, %rax cmpq %rax, %rcx je LBB3_89 LBB3_98: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r12d jne LBB3_100 ## %bb.99: ## in Loop: Header=BB3_98 Depth=1 movl (%r15,%rax,4), %edx jmp LBB3_101 .p2align 4, 0x90 LBB3_100: ## in Loop: Header=BB3_98 Depth=1 movzbl (%r15,%rax), %edx LBB3_101: ## in Loop: Header=BB3_98 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) cmpl $4, %r12d je LBB3_103 ## %bb.102: ## in Loop: Header=BB3_98 Depth=1 movzbl 1(%r15,%rax), %edx jmp LBB3_104 LBB3_91: movzbl (%r15,%rax), %eax LBB3_93: cltq incl (%r13,%rax,4) LBB3_94: cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_110 ## %bb.95: movq -104(%rbp), %rdx ## 8-byte Reload leaq -1(%rdx), %rcx movl %edx, %eax andl $3, %eax cmpq $3, %rcx jae LBB3_105 ## %bb.96: xorl %edx, %edx xorl %ecx, %ecx jmp LBB3_107 LBB3_105: movq %rdx, %rsi ## kill: def $esi killed $esi killed $rsi def $rsi andl $-4, %esi xorl %edx, %edx xorl %ecx, %ecx .p2align 4, 0x90 LBB3_106: ## =>This Inner Loop Header: Depth=1 addl (%r13,%rdx,4), %ecx movl %ecx, (%r13,%rdx,4) addl 4(%r13,%rdx,4), %ecx movl %ecx, 4(%r13,%rdx,4) addl 8(%r13,%rdx,4), %ecx movl %ecx, 8(%r13,%rdx,4) addl 12(%r13,%rdx,4), %ecx movl %ecx, 12(%r13,%rdx,4) addq $4, %rdx cmpq %rdx, %rsi jne LBB3_106 LBB3_107: testq %rax, %rax je LBB3_110 ## %bb.108: leaq (,%rdx,4), %rdx addq %r13, %rdx xorl %esi, %esi .p2align 4, 0x90 LBB3_109: ## =>This Inner Loop Header: Depth=1 addl (%rdx,%rsi,4), %ecx movl %ecx, (%rdx,%rsi,4) incq %rsi cmpq %rsi, %rax jne LBB3_109 LBB3_110: testl %r10d, %r10d jle LBB3_111 ## %bb.120: leaq 1(%r11), %rax jmp LBB3_121 LBB3_125: ## in Loop: Header=BB3_121 Depth=1 movzbl (%r15,%rdx), %edx LBB3_126: ## in Loop: Header=BB3_121 Depth=1 movslq %edx, %rdx movslq (%r13,%rdx,4), %rsi leaq -1(%rsi), %rdi movl %edi, (%r13,%rdx,4) movl %ecx, -4(%r14,%rsi,4) LBB3_127: ## in Loop: Header=BB3_121 Depth=1 decq %rax cmpq $1, %rax jbe LBB3_128 LBB3_121: ## =>This Inner Loop Header: Depth=1 leal -2(%rax), %ecx movl (%r14,%rcx,4), %ecx testl %ecx, %ecx jle LBB3_127 ## %bb.122: ## in Loop: Header=BB3_121 Depth=1 decl %ecx movl %ecx, %edx movq %rdx, %rsi shrq $3, %rsi movl %edx, %edi andl $7, %edi movzbl (%rdi,%r9), %ebx testb %bl, (%r8,%rsi) je LBB3_127 ## %bb.123: ## in Loop: Header=BB3_121 Depth=1 cmpl $4, %r12d jne LBB3_125 ## %bb.124: ## in Loop: Header=BB3_121 Depth=1 movl (%r15,%rdx,4), %edx jmp LBB3_126 LBB3_128: movq %r13, %rdi callq _free movq -88(%rbp), %r10 ## 8-byte Reload leaq _mask(%rip), %r8 movq -64(%rbp), %rcx ## 8-byte Reload xorl %eax, %eax xorl %r11d, %r11d movq -48(%rbp), %r9 ## 8-byte Reload jmp LBB3_129 .p2align 4, 0x90 LBB3_133: ## in Loop: Header=BB3_129 Depth=1 incq %rax cmpq %rax, %r10 je LBB3_112 LBB3_129: ## =>This Inner Loop Header: Depth=1 movl (%r14,%rax,4), %edi testl %edi, %edi jle LBB3_133 ## %bb.130: ## in Loop: Header=BB3_129 Depth=1 movq %rdi, %rdx shrq $3, %rdx movl %edi, %esi andl $7, %esi movzbl (%rsi,%r8), %ebx testb %bl, (%rcx,%rdx) je LBB3_133 ## %bb.131: ## in Loop: Header=BB3_129 Depth=1 leal -1(%rdi), %edx movq %rdx, %rsi shrq $3, %rsi andl $7, %edx movzbl (%rdx,%r8), %edx testb %dl, (%rcx,%rsi) jne LBB3_133 ## %bb.132: ## in Loop: Header=BB3_129 Depth=1 movslq %r11d, %rdx incl %r11d movl %edi, (%r14,%rdx,4) jmp LBB3_133 LBB3_111: movq %r13, %rdi callq _free movq -48(%rbp), %r9 ## 8-byte Reload movq -64(%rbp), %rcx ## 8-byte Reload xorl %r11d, %r11d LBB3_112: movslq %r11d, %rdx cmpl %r9d, %r11d movl %r11d, -68(%rbp) ## 4-byte Spill movq %rdx, -144(%rbp) ## 8-byte Spill jge LBB3_114 ## %bb.113: leaq (%r14,%rdx,4), %rdi movq -112(%rbp), %rax ## 8-byte Reload ## kill: def $eax killed $eax killed $rax def $rax subl %edx, %eax leaq 4(,%rax,4), %rdx movl $255, %esi callq _memset movl -68(%rbp), %r11d ## 4-byte Reload movq -64(%rbp), %rcx ## 8-byte Reload LBB3_114: testl %r11d, %r11d movq %r15, -80(%rbp) ## 8-byte Spill jle LBB3_115 ## %bb.145: movl %r11d, %eax movq %rax, -160(%rbp) ## 8-byte Spill xorl %r9d, %r9d movl $-1, %r11d xorl %esi, %esi movq %r14, -128(%rbp) ## 8-byte Spill jmp LBB3_146 .p2align 4, 0x90 LBB3_163: ## in Loop: Header=BB3_146 Depth=1 movq -136(%rbp), %rsi ## 8-byte Reload incl %esi movl %r10d, %r11d movq -128(%rbp), %r14 ## 8-byte Reload LBB3_164: ## in Loop: Header=BB3_146 Depth=1 sarl %r10d leal -1(%rsi), %eax addl -68(%rbp), %r10d ## 4-byte Folded Reload movslq %r10d, %rdx movl %eax, (%r14,%rdx,4) incq %r9 cmpq -160(%rbp), %r9 ## 8-byte Folded Reload je LBB3_116 LBB3_146: ## =>This Loop Header: Depth=1 ## Child Loop BB3_149 Depth 2 movl (%r14,%r9,4), %r10d cmpl $0, -48(%rbp) ## 4-byte Folded Reload jle LBB3_164 ## %bb.147: ## in Loop: Header=BB3_146 Depth=1 movq %rsi, -136(%rbp) ## 8-byte Spill cmpl $-1, %r11d je LBB3_163 ## %bb.148: ## in Loop: Header=BB3_146 Depth=1 xorl %r15d, %r15d jmp LBB3_149 .p2align 4, 0x90 LBB3_162: ## in Loop: Header=BB3_149 Depth=2 incl %r15d cmpl -48(%rbp), %r15d ## 4-byte Folded Reload jge LBB3_158 LBB3_149: ## Parent Loop BB3_146 Depth=1 ## => This Inner Loop Header: Depth=2 leal (%r15,%r10), %edi movslq %edi, %rax cmpl $4, %r12d jne LBB3_151 ## %bb.150: ## in Loop: Header=BB3_149 Depth=2 movq -80(%rbp), %rsi ## 8-byte Reload movl (%rsi,%rax,4), %eax leal (%r15,%r11), %edx movslq %edx, %rdx movl (%rsi,%rdx,4), %edx cmpl %edx, %eax je LBB3_153 jmp LBB3_163 .p2align 4, 0x90 LBB3_151: ## in Loop: Header=BB3_149 Depth=2 movq -80(%rbp), %rsi ## 8-byte Reload movzbl (%rsi,%rax), %eax leal (%r15,%r11), %edx movslq %edx, %rdx movzbl (%rsi,%rdx), %edx cmpl %edx, %eax jne LBB3_163 LBB3_153: ## in Loop: Header=BB3_149 Depth=2 leal 7(%rdi), %eax testl %edi, %edi cmovnsl %edi, %eax movl %eax, %edx sarl $3, %edx movslq %edx, %rbx andl $-8, %eax movl %edi, %edx subl %eax, %edx movslq %edx, %rax leaq _mask(%rip), %r14 movzbl (%rax,%r14), %edx andb (%rcx,%rbx), %dl sete %r13b movl %r15d, %esi addl %r11d, %esi leal 7(%r15,%r11), %r8d cmovnsl %esi, %r8d movl %r8d, %eax sarl $3, %eax movl %r12d, %ebx movslq %eax, %r12 andl $-8, %r8d movl %esi, %eax subl %r8d, %eax movq -64(%rbp), %rcx ## 8-byte Reload cltq movzbl (%rax,%r14), %eax andb (%rcx,%r12), %al movl %ebx, %r12d setne %bl cmpb %bl, %r13b je LBB3_163 ## %bb.154: ## in Loop: Header=BB3_149 Depth=2 testl %r15d, %r15d je LBB3_162 ## %bb.155: ## in Loop: Header=BB3_149 Depth=2 testl %edi, %edi jle LBB3_159 ## %bb.156: ## in Loop: Header=BB3_149 Depth=2 testb %dl, %dl je LBB3_159 ## %bb.157: ## in Loop: Header=BB3_149 Depth=2 decl %edi movq %rdi, %rdx shrq $3, %rdx andl $7, %edi leaq _mask(%rip), %rbx movzbl (%rdi,%rbx), %ebx testb %bl, (%rcx,%rdx) je LBB3_158 LBB3_159: ## in Loop: Header=BB3_149 Depth=2 testl %esi, %esi jle LBB3_162 ## %bb.160: ## in Loop: Header=BB3_149 Depth=2 testb %al, %al je LBB3_162 ## %bb.161: ## in Loop: Header=BB3_149 Depth=2 decl %esi movq %rsi, %rax shrq $3, %rax andl $7, %esi leaq _mask(%rip), %rdx movzbl (%rsi,%rdx), %edx testb %dl, (%rcx,%rax) jne LBB3_162 LBB3_158: ## in Loop: Header=BB3_146 Depth=1 movq -128(%rbp), %r14 ## 8-byte Reload movq -136(%rbp), %rsi ## 8-byte Reload jmp LBB3_164 LBB3_115: xorl %esi, %esi LBB3_116: movq %rsi, %r11 movq -48(%rbp), %rbx ## 8-byte Reload movslq %ebx, %r9 movl -68(%rbp), %edx ## 4-byte Reload cmpl %ebx, %edx movq -144(%rbp), %r10 ## 8-byte Reload jge LBB3_141 ## %bb.117: ## kill: def $ebx killed $ebx killed $rbx def $rbx subl %edx, %ebx movq %r10, %rdi notq %rdi movq %r9, %rax movq -112(%rbp), %rcx ## 8-byte Reload movl %ecx, %esi testb $1, %bl je LBB3_135 ## %bb.118: leaq -1(%r9), %rax movl -4(%r14,%r9,4), %r8d testl %r8d, %r8d js LBB3_119 ## %bb.134: movq -112(%rbp), %rcx ## 8-byte Reload leal -1(%rcx), %esi movslq %ecx, %rbx movl %r8d, (%r14,%rbx,4) LBB3_135: addq %r9, %rdi jne LBB3_136 LBB3_141: leaq (%r14,%r9,4), %r15 leaq (,%r10,4), %rax subq %rax, %r15 cmpl %edx, %r11d jge LBB3_142 ## %bb.165: decl %r11d movq %r15, %rdi movq %r11, %rcx movq %r14, %rsi ## kill: def $ecx killed $ecx killed $rcx movl $4, %r8d callq _SA_IS movq -152(%rbp), %rdi ## 8-byte Reload jmp LBB3_170 LBB3_142: testl %edx, %edx movq -152(%rbp), %rdi ## 8-byte Reload jle LBB3_170 ## %bb.143: movl -68(%rbp), %r8d ## 4-byte Reload leaq -1(%r8), %rsi movl %r8d, %ecx andl $3, %ecx cmpq $3, %rsi jae LBB3_166 ## %bb.144: xorl %eax, %eax jmp LBB3_168 LBB3_166: andl $-4, %r8d subq -144(%rbp), %r9 ## 8-byte Folded Reload leaq (%r14,%r9,4), %rsi addq $12, %rsi xorl %eax, %eax .p2align 4, 0x90 LBB3_167: ## =>This Inner Loop Header: Depth=1 movslq -12(%rsi,%rax,4), %rdx movl %eax, (%r14,%rdx,4) movslq -8(%rsi,%rax,4), %rbx leal 1(%rax), %edx movl %edx, (%r14,%rbx,4) movslq -4(%rsi,%rax,4), %rdx leal 2(%rax), %ebx movl %ebx, (%r14,%rdx,4) movslq (%rsi,%rax,4), %rdx leal 3(%rax), %ebx movl %ebx, (%r14,%rdx,4) addq $4, %rax cmpq %r8, %rax jne LBB3_167 LBB3_168: testq %rcx, %rcx je LBB3_170 .p2align 4, 0x90 LBB3_169: ## =>This Inner Loop Header: Depth=1 movslq (%r15,%rax,4), %rdx movl %eax, (%r14,%rdx,4) incq %rax decq %rcx jne LBB3_169 LBB3_170: callq _malloc movq %rax, %r13 cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_172 ## %bb.171: movq -120(%rbp), %rax ## 8-byte Reload leaq 4(,%rax,4), %rsi movq %r13, %rdi callq ___bzero LBB3_172: movq -48(%rbp), %r10 ## 8-byte Reload testl %r10d, %r10d movq -64(%rbp), %r8 ## 8-byte Reload leaq _mask(%rip), %r9 movq -88(%rbp), %rsi ## 8-byte Reload movl -68(%rbp), %ebx ## 4-byte Reload jle LBB3_180 ## %bb.173: cmpl $1, %r10d jne LBB3_183 ## %bb.174: xorl %eax, %eax LBB3_175: testb $1, %sil je LBB3_180 ## %bb.176: cmpl $4, %r12d jne LBB3_177 ## %bb.178: movq -80(%rbp), %rcx ## 8-byte Reload movl (%rcx,%rax,4), %eax jmp LBB3_179 LBB3_183: movl %esi, %ecx andl $-2, %ecx xorl %eax, %eax jmp LBB3_184 .p2align 4, 0x90 LBB3_189: ## in Loop: Header=BB3_184 Depth=1 movq -80(%rbp), %rdx ## 8-byte Reload movl 4(%rdx,%rax,4), %edx LBB3_190: ## in Loop: Header=BB3_184 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) addq $2, %rax cmpq %rax, %rcx je LBB3_175 LBB3_184: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r12d jne LBB3_186 ## %bb.185: ## in Loop: Header=BB3_184 Depth=1 movq -80(%rbp), %rdx ## 8-byte Reload movl (%rdx,%rax,4), %edx jmp LBB3_187 .p2align 4, 0x90 LBB3_186: ## in Loop: Header=BB3_184 Depth=1 movq -80(%rbp), %rdx ## 8-byte Reload movzbl (%rdx,%rax), %edx LBB3_187: ## in Loop: Header=BB3_184 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) cmpl $4, %r12d je LBB3_189 ## %bb.188: ## in Loop: Header=BB3_184 Depth=1 movq -80(%rbp), %rdx ## 8-byte Reload movzbl 1(%rdx,%rax), %edx jmp LBB3_190 LBB3_177: movq -80(%rbp), %rcx ## 8-byte Reload movzbl (%rcx,%rax), %eax LBB3_179: cltq incl (%r13,%rax,4) LBB3_180: cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_196 ## %bb.181: movq -104(%rbp), %rdx ## 8-byte Reload leaq -1(%rdx), %rcx movl %edx, %eax andl $3, %eax cmpq $3, %rcx jae LBB3_191 ## %bb.182: xorl %edx, %edx xorl %ecx, %ecx jmp LBB3_193 LBB3_191: movq %rdx, %rsi ## kill: def $esi killed $esi killed $rsi def $rsi andl $-4, %esi xorl %edx, %edx xorl %ecx, %ecx .p2align 4, 0x90 LBB3_192: ## =>This Inner Loop Header: Depth=1 addl (%r13,%rdx,4), %ecx movl %ecx, (%r13,%rdx,4) addl 4(%r13,%rdx,4), %ecx movl %ecx, 4(%r13,%rdx,4) addl 8(%r13,%rdx,4), %ecx movl %ecx, 8(%r13,%rdx,4) addl 12(%r13,%rdx,4), %ecx movl %ecx, 12(%r13,%rdx,4) addq $4, %rdx cmpq %rdx, %rsi jne LBB3_192 LBB3_193: testq %rax, %rax je LBB3_196 ## %bb.194: leaq (,%rdx,4), %rdx addq %r13, %rdx xorl %esi, %esi .p2align 4, 0x90 LBB3_195: ## =>This Inner Loop Header: Depth=1 addl (%rdx,%rsi,4), %ecx movl %ecx, (%rdx,%rsi,4) incq %rsi cmpq %rsi, %rax jne LBB3_195 LBB3_196: cmpb $0, -92(%rbp) ## 1-byte Folded Reload je LBB3_202 ## %bb.197: xorl %eax, %eax movl $1, %ecx jmp LBB3_198 .p2align 4, 0x90 LBB3_201: ## in Loop: Header=BB3_198 Depth=1 incl %ecx cmpl %ecx, %r10d je LBB3_202 LBB3_198: ## =>This Inner Loop Header: Depth=1 movl %ecx, %edx movq %rdx, %rsi shrq $3, %rsi andl $7, %edx movzbl (%rdx,%r9), %edx testb %dl, (%r8,%rsi) je LBB3_201 ## %bb.199: ## in Loop: Header=BB3_198 Depth=1 leal -1(%rcx), %edx movq %rdx, %rsi shrq $3, %rsi andl $7, %edx movzbl (%rdx,%r9), %edx testb %dl, (%r8,%rsi) jne LBB3_201 ## %bb.200: ## in Loop: Header=BB3_198 Depth=1 movslq %eax, %rdx incl %eax movl %ecx, (%r15,%rdx,4) jmp LBB3_201 LBB3_202: testl %ebx, %ebx jle LBB3_208 ## %bb.203: movl %ebx, %ecx leaq -1(%rcx), %rdx movl %ecx, %eax andl $3, %eax cmpq $3, %rdx jae LBB3_214 ## %bb.204: xorl %edx, %edx jmp LBB3_205 LBB3_214: andl $-4, %ecx xorl %edx, %edx .p2align 4, 0x90 LBB3_215: ## =>This Inner Loop Header: Depth=1 movslq (%r14,%rdx,4), %rsi movl (%r15,%rsi,4), %esi movl %esi, (%r14,%rdx,4) movslq 4(%r14,%rdx,4), %rsi movl (%r15,%rsi,4), %esi movl %esi, 4(%r14,%rdx,4) movslq 8(%r14,%rdx,4), %rsi movl (%r15,%rsi,4), %esi movl %esi, 8(%r14,%rdx,4) movslq 12(%r14,%rdx,4), %rsi movl (%r15,%rsi,4), %esi movl %esi, 12(%r14,%rdx,4) addq $4, %rdx cmpq %rdx, %rcx jne LBB3_215 LBB3_205: testq %rax, %rax je LBB3_208 ## %bb.206: leaq (%r14,%rdx,4), %rcx xorl %edx, %edx .p2align 4, 0x90 LBB3_207: ## =>This Inner Loop Header: Depth=1 movslq (%rcx,%rdx,4), %rsi movl (%r15,%rsi,4), %esi movl %esi, (%rcx,%rdx,4) incq %rdx cmpq %rdx, %rax jne LBB3_207 LBB3_208: cmpl %r10d, %ebx jge LBB3_210 ## %bb.209: movq -144(%rbp), %rax ## 8-byte Reload leaq (%r14,%rax,4), %rdi movq -112(%rbp), %rax ## 8-byte Reload subl %ebx, %eax leaq 4(,%rax,4), %rdx movl $255, %esi callq _memset movl -68(%rbp), %ebx ## 4-byte Reload movq -48(%rbp), %r10 ## 8-byte Reload leaq _mask(%rip), %r9 movq -64(%rbp), %r8 ## 8-byte Reload LBB3_210: testl %ebx, %ebx movq -80(%rbp), %r15 ## 8-byte Reload jle LBB3_218 ## %bb.211: movl %ebx, %eax incq %rax jmp LBB3_212 .p2align 4, 0x90 LBB3_216: ## in Loop: Header=BB3_212 Depth=1 movzbl (%r15,%rdx), %edx LBB3_217: ## in Loop: Header=BB3_212 Depth=1 movslq %edx, %rdx movslq (%r13,%rdx,4), %rsi leaq -1(%rsi), %rdi movl %edi, (%r13,%rdx,4) movl %ecx, -4(%r14,%rsi,4) decq %rax cmpq $1, %rax jbe LBB3_218 LBB3_212: ## =>This Inner Loop Header: Depth=1 leal -2(%rax), %edx movl (%r14,%rdx,4), %ecx movl $-1, (%r14,%rdx,4) movslq %ecx, %rdx cmpl $4, %r12d jne LBB3_216 ## %bb.213: ## in Loop: Header=BB3_212 Depth=1 movl (%r15,%rdx,4), %edx jmp LBB3_217 LBB3_218: cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_220 ## %bb.219: movq -120(%rbp), %rax ## 8-byte Reload leaq 4(,%rax,4), %rsi movq %r13, %rdi callq ___bzero movq -48(%rbp), %r10 ## 8-byte Reload leaq _mask(%rip), %r9 movq -64(%rbp), %r8 ## 8-byte Reload LBB3_220: testl %r10d, %r10d movq -88(%rbp), %r11 ## 8-byte Reload jle LBB3_228 ## %bb.221: cmpl $1, %r10d jne LBB3_231 ## %bb.222: xorl %eax, %eax LBB3_223: testb $1, %r11b je LBB3_228 ## %bb.224: cmpl $4, %r12d jne LBB3_225 ## %bb.226: movl (%r15,%rax,4), %eax jmp LBB3_227 LBB3_231: movl %r11d, %ecx andl $-2, %ecx xorl %eax, %eax jmp LBB3_232 .p2align 4, 0x90 LBB3_237: ## in Loop: Header=BB3_232 Depth=1 movl 4(%r15,%rax,4), %edx LBB3_238: ## in Loop: Header=BB3_232 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) addq $2, %rax cmpq %rax, %rcx je LBB3_223 LBB3_232: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r12d jne LBB3_234 ## %bb.233: ## in Loop: Header=BB3_232 Depth=1 movl (%r15,%rax,4), %edx jmp LBB3_235 .p2align 4, 0x90 LBB3_234: ## in Loop: Header=BB3_232 Depth=1 movzbl (%r15,%rax), %edx LBB3_235: ## in Loop: Header=BB3_232 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) cmpl $4, %r12d je LBB3_237 ## %bb.236: ## in Loop: Header=BB3_232 Depth=1 movzbl 1(%r15,%rax), %edx jmp LBB3_238 LBB3_225: movzbl (%r15,%rax), %eax LBB3_227: cltq incl (%r13,%rax,4) LBB3_228: cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_244 ## %bb.229: movq -104(%rbp), %rdx ## 8-byte Reload leaq -1(%rdx), %rcx movl %edx, %eax andl $3, %eax cmpq $3, %rcx jae LBB3_239 ## %bb.230: xorl %ecx, %ecx xorl %edx, %edx jmp LBB3_241 LBB3_239: movq %rdx, %rsi ## kill: def $esi killed $esi killed $rsi def $rsi andl $-4, %esi xorl %ecx, %ecx xorl %edx, %edx .p2align 4, 0x90 LBB3_240: ## =>This Inner Loop Header: Depth=1 movl (%r13,%rcx,4), %edi addl %edx, %edi movl %edx, (%r13,%rcx,4) movl 4(%r13,%rcx,4), %edx addl %edi, %edx movl %edi, 4(%r13,%rcx,4) movl 8(%r13,%rcx,4), %edi addl %edx, %edi movl %edx, 8(%r13,%rcx,4) movl 12(%r13,%rcx,4), %edx addl %edi, %edx movl %edi, 12(%r13,%rcx,4) addq $4, %rcx cmpq %rcx, %rsi jne LBB3_240 LBB3_241: testq %rax, %rax je LBB3_244 ## %bb.242: leaq (,%rcx,4), %rcx addq %r13, %rcx xorl %esi, %esi .p2align 4, 0x90 LBB3_243: ## =>This Inner Loop Header: Depth=1 movl (%rcx,%rsi,4), %edi addl %edx, %edi movl %edx, (%rcx,%rsi,4) incq %rsi movl %edi, %edx cmpq %rsi, %rax jne LBB3_243 LBB3_244: testl %r10d, %r10d jle LBB3_253 ## %bb.245: xorl %eax, %eax jmp LBB3_246 LBB3_250: ## in Loop: Header=BB3_246 Depth=1 movzbl (%r15,%rdx), %edx LBB3_251: ## in Loop: Header=BB3_246 Depth=1 movslq %edx, %rdx movslq (%r13,%rdx,4), %rsi leal 1(%rsi), %edi movl %edi, (%r13,%rdx,4) movl %ecx, (%r14,%rsi,4) LBB3_252: ## in Loop: Header=BB3_246 Depth=1 incq %rax cmpq %rax, %r11 je LBB3_253 LBB3_246: ## =>This Inner Loop Header: Depth=1 movl (%r14,%rax,4), %ecx testl %ecx, %ecx jle LBB3_252 ## %bb.247: ## in Loop: Header=BB3_246 Depth=1 decl %ecx movl %ecx, %edx movq %rdx, %rsi shrq $3, %rsi movl %edx, %edi andl $7, %edi movzbl (%rdi,%r9), %ebx testb %bl, (%r8,%rsi) jne LBB3_252 ## %bb.248: ## in Loop: Header=BB3_246 Depth=1 cmpl $4, %r12d jne LBB3_250 ## %bb.249: ## in Loop: Header=BB3_246 Depth=1 movl (%r15,%rdx,4), %edx jmp LBB3_251 LBB3_253: cmpl $0, -56(%rbp) ## 4-byte Folded Reload js LBB3_255 ## %bb.254: movq -120(%rbp), %rax ## 8-byte Reload leaq 4(,%rax,4), %rsi movq %r13, %rdi callq ___bzero movq -88(%rbp), %r11 ## 8-byte Reload movq -48(%rbp), %r10 ## 8-byte Reload leaq _mask(%rip), %r9 LBB3_255: testl %r10d, %r10d movq -104(%rbp), %rsi ## 8-byte Reload jle LBB3_263 ## %bb.256: cmpl $1, %r10d jne LBB3_266 ## %bb.257: xorl %eax, %eax LBB3_258: testb $1, %r11b je LBB3_263 ## %bb.259: cmpl $4, %r12d jne LBB3_260 ## %bb.261: movl (%r15,%rax,4), %eax jmp LBB3_262 LBB3_266: movl %r11d, %ecx andl $-2, %ecx xorl %eax, %eax jmp LBB3_267 .p2align 4, 0x90 LBB3_272: ## in Loop: Header=BB3_267 Depth=1 movl 4(%r15,%rax,4), %edx LBB3_273: ## in Loop: Header=BB3_267 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) addq $2, %rax cmpq %rax, %rcx je LBB3_258 LBB3_267: ## =>This Inner Loop Header: Depth=1 cmpl $4, %r12d jne LBB3_269 ## %bb.268: ## in Loop: Header=BB3_267 Depth=1 movl (%r15,%rax,4), %edx jmp LBB3_270 .p2align 4, 0x90 LBB3_269: ## in Loop: Header=BB3_267 Depth=1 movzbl (%r15,%rax), %edx LBB3_270: ## in Loop: Header=BB3_267 Depth=1 movslq %edx, %rdx incl (%r13,%rdx,4) cmpl $4, %r12d je LBB3_272 ## %bb.271: ## in Loop: Header=BB3_267 Depth=1 movzbl 1(%r15,%rax), %edx jmp LBB3_273 LBB3_260: movzbl (%r15,%rax), %eax LBB3_262: cltq incl (%r13,%rax,4) LBB3_263: cmpl $0, -56(%rbp) ## 4-byte Folded Reload movq -64(%rbp), %r8 ## 8-byte Reload js LBB3_279 ## %bb.264: leaq -1(%rsi), %rcx movl %esi, %eax andl $3, %eax cmpq $3, %rcx jae LBB3_274 ## %bb.265: xorl %edx, %edx xorl %ecx, %ecx jmp LBB3_276 LBB3_274: andl $-4, %esi xorl %edx, %edx xorl %ecx, %ecx .p2align 4, 0x90 LBB3_275: ## =>This Inner Loop Header: Depth=1 addl (%r13,%rdx,4), %ecx movl %ecx, (%r13,%rdx,4) addl 4(%r13,%rdx,4), %ecx movl %ecx, 4(%r13,%rdx,4) addl 8(%r13,%rdx,4), %ecx movl %ecx, 8(%r13,%rdx,4) addl 12(%r13,%rdx,4), %ecx movl %ecx, 12(%r13,%rdx,4) addq $4, %rdx cmpq %rdx, %rsi jne LBB3_275 LBB3_276: testq %rax, %rax je LBB3_279 ## %bb.277: leaq (,%rdx,4), %rdx addq %r13, %rdx xorl %esi, %esi .p2align 4, 0x90 LBB3_278: ## =>This Inner Loop Header: Depth=1 addl (%rdx,%rsi,4), %ecx movl %ecx, (%rdx,%rsi,4) incq %rsi cmpq %rsi, %rax jne LBB3_278 LBB3_279: testl %r10d, %r10d jle LBB3_288 ## %bb.280: incq %r11 jmp LBB3_281 LBB3_285: ## in Loop: Header=BB3_281 Depth=1 movzbl (%r15,%rcx), %ecx LBB3_286: ## in Loop: Header=BB3_281 Depth=1 movslq %ecx, %rcx movslq (%r13,%rcx,4), %rdx leaq -1(%rdx), %rsi movl %esi, (%r13,%rcx,4) movl %eax, -4(%r14,%rdx,4) LBB3_287: ## in Loop: Header=BB3_281 Depth=1 decq %r11 cmpq $1, %r11 jbe LBB3_288 LBB3_281: ## =>This Inner Loop Header: Depth=1 leal -2(%r11), %eax movl (%r14,%rax,4), %eax testl %eax, %eax jle LBB3_287 ## %bb.282: ## in Loop: Header=BB3_281 Depth=1 decl %eax movl %eax, %ecx movq %rcx, %rdx shrq $3, %rdx movl %ecx, %esi andl $7, %esi movzbl (%rsi,%r9), %ebx testb %bl, (%r8,%rdx) je LBB3_287 ## %bb.283: ## in Loop: Header=BB3_281 Depth=1 cmpl $4, %r12d jne LBB3_285 ## %bb.284: ## in Loop: Header=BB3_281 Depth=1 movl (%r15,%rcx,4), %ecx jmp LBB3_286 LBB3_288: movq %r13, %rdi movq %r8, %rbx callq _free movq %rbx, %rdi addq $120, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp jmp _free ## TAILCALL LBB3_119: movq -112(%rbp), %rcx ## 8-byte Reload movl %ecx, %esi addq %r9, %rdi jne LBB3_136 jmp LBB3_141 .p2align 4, 0x90 LBB3_140: ## in Loop: Header=BB3_136 Depth=1 cmpq %r10, %rax jle LBB3_141 LBB3_136: ## =>This Inner Loop Header: Depth=1 movl -4(%r14,%rax,4), %edi testl %edi, %edi js LBB3_138 ## %bb.137: ## in Loop: Header=BB3_136 Depth=1 movslq %esi, %rbx decl %esi movl %edi, (%r14,%rbx,4) LBB3_138: ## in Loop: Header=BB3_136 Depth=1 movl -8(%r14,%rax,4), %edi addq $-2, %rax testl %edi, %edi js LBB3_140 ## %bb.139: ## in Loop: Header=BB3_136 Depth=1 movslq %esi, %rbx decl %esi movl %edi, (%r14,%rbx,4) jmp LBB3_140 .cfi_endproc ## -- End function .globl _main ## -- Begin function main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl $284, %edi ## imm = 0x11C callq _malloc movq %rax, %r15 leaq L_.str(%rip), %rdi movq %rax, %rsi movl $71, %edx movl $256, %ecx ## imm = 0x100 movl $1, %r8d callq _SA_IS leaq L_str(%rip), %rdi callq _puts leaq L_.str.2(%rip), %r14 xorl %ebx, %ebx .p2align 4, 0x90 LBB4_1: ## =>This Inner Loop Header: Depth=1 movl (%r15,%rbx,4), %esi movq %r14, %rdi xorl %eax, %eax callq _printf incq %rbx cmpq $71, %rbx jne LBB4_1 ## %bb.2: movl $10, %edi callq _putchar xorl %eax, %eax addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .section __DATA,__data .globl _mask ## @mask _mask: .ascii "\200@ \020\b\004\002\001" .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "CCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTA$" L_.str.2: ## @.str.2 .asciz "%d " L_str: ## @str .asciz "done" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _getBuckets ; -- Begin function getBuckets .p2align 2 _getBuckets: ; @getBuckets .cfi_startproc ; %bb.0: stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x19, x5 mov x22, x4 mov x21, x3 mov x24, x2 mov x20, x1 mov x23, x0 tbnz w3, #31, LBB0_2 ; %bb.1: mov w8, w21 lsl x8, x8, #2 add x1, x8, #4 mov x0, x20 bl _bzero LBB0_2: cmp w24, #1 b.lt LBB0_8 ; %bb.3: mov x8, #0 mov w9, w24 b LBB0_6 LBB0_4: ; in Loop: Header=BB0_6 Depth=1 ldrb w10, [x23, x8] LBB0_5: ; in Loop: Header=BB0_6 Depth=1 sbfiz x10, x10, #2, #32 ldr w11, [x20, x10] add w11, w11, #1 str w11, [x20, x10] add x8, x8, #1 cmp x9, x8 b.eq LBB0_8 LBB0_6: ; =>This Inner Loop Header: Depth=1 cmp w22, #4 b.ne LBB0_4 ; %bb.7: ; in Loop: Header=BB0_6 Depth=1 ldr w10, [x23, x8, lsl #2] b LBB0_5 LBB0_8: tbnz w21, #31, LBB0_11 ; %bb.9: mov w9, #0 add w8, w21, #1 LBB0_10: ; =>This Inner Loop Header: Depth=1 ldr w10, [x20] add w10, w10, w9 cmp w19, #0 csel w9, w9, w10, eq str w9, [x20], #4 mov x9, x10 subs x8, x8, #1 b.ne LBB0_10 LBB0_11: ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload ldp x24, x23, [sp], #64 ; 16-byte Folded Reload ret .cfi_endproc ; -- End function .globl _induceSAl ; -- Begin function induceSAl .p2align 2 _induceSAl: ; @induceSAl .cfi_startproc ; %bb.0: stp x26, x25, [sp, #-80]! ; 16-byte Folded Spill .cfi_def_cfa_offset 80 stp x24, x23, [sp, #16] ; 16-byte Folded Spill stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 mov x24, x7 mov x19, x6 mov x26, x5 mov x25, x4 mov x20, x3 mov x21, x2 mov x22, x1 mov x23, x0 tbnz w5, #31, LBB1_2 ; %bb.1: mov w8, w26 lsl x8, x8, #2 add x1, x8, #4 mov x0, x20 bl _bzero LBB1_2: mov w8, w25 cmp w25, #1 b.lt LBB1_8 ; %bb.3: mov x9, #0 b LBB1_6 LBB1_4: ; in Loop: Header=BB1_6 Depth=1 ldrb w10, [x21, x9] LBB1_5: ; in Loop: Header=BB1_6 Depth=1 sbfiz x10, x10, #2, #32 ldr w11, [x20, x10] add w11, w11, #1 str w11, [x20, x10] add x9, x9, #1 cmp x8, x9 b.eq LBB1_8 LBB1_6: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB1_4 ; %bb.7: ; in Loop: Header=BB1_6 Depth=1 ldr w10, [x21, x9, lsl #2] b LBB1_5 LBB1_8: tbnz w26, #31, LBB1_11 ; %bb.9: mov w11, #0 add w9, w26, #1 mov x10, x20 LBB1_10: ; =>This Inner Loop Header: Depth=1 ldr w12, [x10] add w12, w12, w11 cmp w24, #0 csel w11, w11, w12, eq str w11, [x10], #4 mov x11, x12 subs x9, x9, #1 b.ne LBB1_10 LBB1_11: cmp w25, #1 b.lt LBB1_20 ; %bb.12: Lloh0: adrp x9, _mask@PAGE Lloh1: add x9, x9, _mask@PAGEOFF mov x10, x22 b LBB1_16 LBB1_13: ; in Loop: Header=BB1_16 Depth=1 ldrb w12, [x21, x11] LBB1_14: ; in Loop: Header=BB1_16 Depth=1 sbfiz x12, x12, #2, #32 ldrsw x13, [x20, x12] add w14, w13, #1 str w14, [x20, x12] str w11, [x22, x13, lsl #2] LBB1_15: ; in Loop: Header=BB1_16 Depth=1 add x10, x10, #4 subs x8, x8, #1 b.eq LBB1_20 LBB1_16: ; =>This Inner Loop Header: Depth=1 ldr w11, [x10] subs w11, w11, #1 b.lt LBB1_15 ; %bb.17: ; in Loop: Header=BB1_16 Depth=1 lsr x12, x11, #3 ldrb w12, [x23, x12] and x13, x11, #0x7 ldrb w13, [x9, x13] tst w13, w12 b.ne LBB1_15 ; %bb.18: ; in Loop: Header=BB1_16 Depth=1 cmp w19, #4 b.ne LBB1_13 ; %bb.19: ; in Loop: Header=BB1_16 Depth=1 ldr w12, [x21, x11, lsl #2] b LBB1_14 LBB1_20: ldp x29, x30, [sp, #64] ; 16-byte Folded Reload ldp x20, x19, [sp, #48] ; 16-byte Folded Reload ldp x22, x21, [sp, #32] ; 16-byte Folded Reload ldp x24, x23, [sp, #16] ; 16-byte Folded Reload ldp x26, x25, [sp], #80 ; 16-byte Folded Reload ret .loh AdrpAdd Lloh0, Lloh1 .cfi_endproc ; -- End function .globl _induceSAs ; -- Begin function induceSAs .p2align 2 _induceSAs: ; @induceSAs .cfi_startproc ; %bb.0: stp x26, x25, [sp, #-80]! ; 16-byte Folded Spill .cfi_def_cfa_offset 80 stp x24, x23, [sp, #16] ; 16-byte Folded Spill stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 mov x24, x7 mov x19, x6 mov x26, x5 mov x25, x4 mov x20, x3 mov x21, x2 mov x22, x1 mov x23, x0 tbnz w5, #31, LBB2_2 ; %bb.1: mov w8, w26 lsl x8, x8, #2 add x1, x8, #4 mov x0, x20 bl _bzero LBB2_2: mov w8, w25 cmp w25, #1 b.lt LBB2_8 ; %bb.3: mov x9, #0 b LBB2_6 LBB2_4: ; in Loop: Header=BB2_6 Depth=1 ldrb w10, [x21, x9] LBB2_5: ; in Loop: Header=BB2_6 Depth=1 sbfiz x10, x10, #2, #32 ldr w11, [x20, x10] add w11, w11, #1 str w11, [x20, x10] add x9, x9, #1 cmp x8, x9 b.eq LBB2_8 LBB2_6: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB2_4 ; %bb.7: ; in Loop: Header=BB2_6 Depth=1 ldr w10, [x21, x9, lsl #2] b LBB2_5 LBB2_8: tbnz w26, #31, LBB2_11 ; %bb.9: mov w11, #0 add w9, w26, #1 mov x10, x20 LBB2_10: ; =>This Inner Loop Header: Depth=1 ldr w12, [x10] add w12, w12, w11 cmp w24, #0 csel w11, w11, w12, eq str w11, [x10], #4 mov x11, x12 subs x9, x9, #1 b.ne LBB2_10 LBB2_11: cmp w25, #1 b.lt LBB2_20 ; %bb.12: add x8, x8, #1 Lloh2: adrp x9, _mask@PAGE Lloh3: add x9, x9, _mask@PAGEOFF b LBB2_16 LBB2_13: ; in Loop: Header=BB2_16 Depth=1 ldrb w11, [x21, x10] LBB2_14: ; in Loop: Header=BB2_16 Depth=1 sbfiz x11, x11, #2, #32 ldrsw x12, [x20, x11] sub x12, x12, #1 str w12, [x20, x11] str w10, [x22, x12, lsl #2] LBB2_15: ; in Loop: Header=BB2_16 Depth=1 sub x8, x8, #1 cmp x8, #1 b.ls LBB2_20 LBB2_16: ; =>This Inner Loop Header: Depth=1 sub w10, w8, #2 ldr w10, [x22, w10, uxtw #2] subs w10, w10, #1 b.lt LBB2_15 ; %bb.17: ; in Loop: Header=BB2_16 Depth=1 lsr x11, x10, #3 ldrb w11, [x23, x11] and x12, x10, #0x7 ldrb w12, [x9, x12] tst w12, w11 b.eq LBB2_15 ; %bb.18: ; in Loop: Header=BB2_16 Depth=1 cmp w19, #4 b.ne LBB2_13 ; %bb.19: ; in Loop: Header=BB2_16 Depth=1 ldr w11, [x21, x10, lsl #2] b LBB2_14 LBB2_20: ldp x29, x30, [sp, #64] ; 16-byte Folded Reload ldp x20, x19, [sp, #48] ; 16-byte Folded Reload ldp x22, x21, [sp, #32] ; 16-byte Folded Reload ldp x24, x23, [sp, #16] ; 16-byte Folded Reload ldp x26, x25, [sp], #80 ; 16-byte Folded Reload ret .loh AdrpAdd Lloh2, Lloh3 .cfi_endproc ; -- End function .globl _SA_IS ; -- Begin function SA_IS .p2align 2 _SA_IS: ; @SA_IS .cfi_startproc ; %bb.0: sub sp, sp, #128 .cfi_def_cfa_offset 128 stp x28, x27, [sp, #32] ; 16-byte Folded Spill stp x26, x25, [sp, #48] ; 16-byte Folded Spill stp x24, x23, [sp, #64] ; 16-byte Folded Spill stp x22, x21, [sp, #80] ; 16-byte Folded Spill stp x20, x19, [sp, #96] ; 16-byte Folded Spill stp x29, x30, [sp, #112] ; 16-byte Folded Spill add x29, sp, #112 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 .cfi_offset w27, -88 .cfi_offset w28, -96 mov x19, x4 mov x27, x3 mov x22, x2 mov x20, x1 mov x21, x0 add w8, w2, #7 cmp w2, #0 csel w8, w8, w2, lt asr w8, w8, #3 add w8, w8, #1 sxtw x0, w8 bl _malloc mov x15, x22 mov x22, x0 sub w8, w15, #2 add w9, w15, #5 cmp w8, #0 csel w9, w9, w8, lt asr w9, w9, #3 strb wzr, [x0, w9, sxtw] sub w11, w15, #1 add w9, w15, #6 cmp w11, #0 csel w9, w9, w11, lt and w10, w9, #0xfffffff8 str w11, [sp, #16] ; 4-byte Folded Spill sub w10, w11, w10 Lloh4: adrp x28, _mask@PAGE Lloh5: add x28, x28, _mask@PAGEOFF ldrb w10, [x28, w10, sxtw] sbfx x9, x9, #3, #29 ldrb w11, [x0, x9] orr w10, w11, w10 strb w10, [x0, x9] subs w9, w15, #3 b.lt LBB3_10 ; %bb.1: add x10, x21, #4 add x11, x21, w9, uxtw #2 add x11, x11, #4 b LBB3_5 LBB3_2: ; in Loop: Header=BB3_5 Depth=1 mov w12, w8 lsr x13, x12, #3 ldrb w13, [x22, x13] and x12, x12, #0x7 ldrb w12, [x28, x12] tst w12, w13 b.eq LBB3_9 LBB3_3: ; in Loop: Header=BB3_5 Depth=1 and x12, x9, #0x7 ldrb w13, [x28, x12] ubfx x12, x9, #3, #29 ldrb w14, [x22, x12] orr w13, w14, w13 LBB3_4: ; in Loop: Header=BB3_5 Depth=1 strb w13, [x22, x12] sub x12, x9, #1 sub w8, w8, #1 sub x11, x11, #4 cmp x9, #0 mov x9, x12 b.le LBB3_10 LBB3_5: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB3_7 ; %bb.6: ; in Loop: Header=BB3_5 Depth=1 ldp w12, w13, [x11, #-4] cmp w12, w13 b.lt LBB3_3 b LBB3_8 LBB3_7: ; in Loop: Header=BB3_5 Depth=1 add x13, x10, x9 ldurb w12, [x13, #-4] ldurb w13, [x13, #-3] cmp w12, w13 b.lo LBB3_3 LBB3_8: ; in Loop: Header=BB3_5 Depth=1 cmp w12, w13 b.eq LBB3_2 LBB3_9: ; in Loop: Header=BB3_5 Depth=1 and x12, x9, #0x7 ldrb w13, [x28, x12] ubfx x12, x9, #3, #29 ldrb w14, [x22, x12] bic w13, w14, w13 b LBB3_4 LBB3_10: str x15, [sp, #24] ; 8-byte Folded Spill add w24, w27, #1 mov x8, x24 sbfiz x25, x8, #2, #32 mov x0, x25 bl _malloc mov x26, x0 tbnz w27, #31, LBB3_12 ; %bb.11: mov w8, w27 lsl x8, x8, #2 add x1, x8, #4 mov x0, x26 bl _bzero LBB3_12: ldr x14, [sp, #24] ; 8-byte Folded Reload mov w23, w14 cmp w14, #1 b.lt LBB3_18 ; %bb.13: mov x8, #0 b LBB3_16 LBB3_14: ; in Loop: Header=BB3_16 Depth=1 ldrb w9, [x21, x8] LBB3_15: ; in Loop: Header=BB3_16 Depth=1 sbfiz x9, x9, #2, #32 ldr w10, [x26, x9] add w10, w10, #1 str w10, [x26, x9] add x8, x8, #1 cmp x23, x8 b.eq LBB3_18 LBB3_16: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB3_14 ; %bb.17: ; in Loop: Header=BB3_16 Depth=1 ldr w9, [x21, x8, lsl #2] b LBB3_15 LBB3_18: tbnz w27, #31, LBB3_21 ; %bb.19: mov w8, #0 mov x9, x26 mov x10, x24 LBB3_20: ; =>This Inner Loop Header: Depth=1 ldr w11, [x9] add w8, w11, w8 str w8, [x9], #4 subs x10, x10, #1 b.ne LBB3_20 LBB3_21: cmp w14, #1 b.lt LBB3_23 ; %bb.22: lsl x2, x23, #2 mov x0, x20 mov w1, #255 bl _memset ldr x14, [sp, #24] ; 8-byte Folded Reload cmp w14, #1 b.ne LBB3_171 LBB3_23: str wzr, [sp, #12] ; 4-byte Folded Spill tbnz w27, #31, LBB3_25 LBB3_24: mov w8, w27 lsl x8, x8, #2 add x1, x8, #4 mov x0, x26 bl _bzero ldr x14, [sp, #24] ; 8-byte Folded Reload LBB3_25: cmp w14, #1 b.lt LBB3_31 ; %bb.26: mov x8, #0 b LBB3_29 LBB3_27: ; in Loop: Header=BB3_29 Depth=1 ldrb w9, [x21, x8] LBB3_28: ; in Loop: Header=BB3_29 Depth=1 sbfiz x9, x9, #2, #32 ldr w10, [x26, x9] add w10, w10, #1 str w10, [x26, x9] add x8, x8, #1 cmp x23, x8 b.eq LBB3_31 LBB3_29: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB3_27 ; %bb.30: ; in Loop: Header=BB3_29 Depth=1 ldr w9, [x21, x8, lsl #2] b LBB3_28 LBB3_31: tbnz w27, #31, LBB3_34 ; %bb.32: mov w10, #0 mov x8, x26 mov x9, x24 LBB3_33: ; =>This Inner Loop Header: Depth=1 ldr w11, [x8] str w10, [x8], #4 add w10, w11, w10 subs x9, x9, #1 b.ne LBB3_33 LBB3_34: cmp w14, #1 b.lt LBB3_43 ; %bb.35: mov x8, x20 mov x9, x23 b LBB3_39 LBB3_36: ; in Loop: Header=BB3_39 Depth=1 ldrb w11, [x21, x10] LBB3_37: ; in Loop: Header=BB3_39 Depth=1 sbfiz x11, x11, #2, #32 ldrsw x12, [x26, x11] add w13, w12, #1 str w13, [x26, x11] str w10, [x20, x12, lsl #2] LBB3_38: ; in Loop: Header=BB3_39 Depth=1 add x8, x8, #4 subs x9, x9, #1 b.eq LBB3_43 LBB3_39: ; =>This Inner Loop Header: Depth=1 ldr w10, [x8] subs w10, w10, #1 b.lt LBB3_38 ; %bb.40: ; in Loop: Header=BB3_39 Depth=1 lsr x11, x10, #3 ldrb w11, [x22, x11] and x12, x10, #0x7 ldrb w12, [x28, x12] tst w12, w11 b.ne LBB3_38 ; %bb.41: ; in Loop: Header=BB3_39 Depth=1 cmp w19, #4 b.ne LBB3_36 ; %bb.42: ; in Loop: Header=BB3_39 Depth=1 ldr w11, [x21, x10, lsl #2] b LBB3_37 LBB3_43: tbnz w27, #31, LBB3_45 ; %bb.44: mov w8, w27 lsl x8, x8, #2 add x1, x8, #4 mov x0, x26 bl _bzero ldr x14, [sp, #24] ; 8-byte Folded Reload LBB3_45: cmp w14, #1 b.lt LBB3_51 ; %bb.46: mov x8, #0 b LBB3_49 LBB3_47: ; in Loop: Header=BB3_49 Depth=1 ldrb w9, [x21, x8] LBB3_48: ; in Loop: Header=BB3_49 Depth=1 sbfiz x9, x9, #2, #32 ldr w10, [x26, x9] add w10, w10, #1 str w10, [x26, x9] add x8, x8, #1 cmp x23, x8 b.eq LBB3_51 LBB3_49: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB3_47 ; %bb.50: ; in Loop: Header=BB3_49 Depth=1 ldr w9, [x21, x8, lsl #2] b LBB3_48 LBB3_51: tbnz w27, #31, LBB3_54 ; %bb.52: mov w8, #0 mov x9, x26 mov x10, x24 LBB3_53: ; =>This Inner Loop Header: Depth=1 ldr w11, [x9] add w8, w11, w8 str w8, [x9], #4 subs x10, x10, #1 b.ne LBB3_53 LBB3_54: cmp w14, #0 b.le LBB3_69 ; %bb.55: add x8, x23, #1 b LBB3_59 LBB3_56: ; in Loop: Header=BB3_59 Depth=1 ldrb w10, [x21, x9] LBB3_57: ; in Loop: Header=BB3_59 Depth=1 sbfiz x10, x10, #2, #32 ldrsw x11, [x26, x10] sub x11, x11, #1 str w11, [x26, x10] str w9, [x20, x11, lsl #2] LBB3_58: ; in Loop: Header=BB3_59 Depth=1 sub x8, x8, #1 cmp x8, #1 b.ls LBB3_63 LBB3_59: ; =>This Inner Loop Header: Depth=1 sub w9, w8, #2 ldr w9, [x20, w9, uxtw #2] subs w9, w9, #1 b.lt LBB3_58 ; %bb.60: ; in Loop: Header=BB3_59 Depth=1 lsr x10, x9, #3 ldrb w10, [x22, x10] and x11, x9, #0x7 ldrb w11, [x28, x11] tst w11, w10 b.eq LBB3_58 ; %bb.61: ; in Loop: Header=BB3_59 Depth=1 cmp w19, #4 b.ne LBB3_56 ; %bb.62: ; in Loop: Header=BB3_59 Depth=1 ldr w10, [x21, x9, lsl #2] b LBB3_57 LBB3_63: mov x0, x26 bl _free mov w26, #0 mov x8, x23 mov x9, x20 ldr x3, [sp, #24] ; 8-byte Folded Reload b LBB3_65 LBB3_64: ; in Loop: Header=BB3_65 Depth=1 add x9, x9, #4 subs x8, x8, #1 b.eq LBB3_70 LBB3_65: ; =>This Inner Loop Header: Depth=1 ldr w10, [x9] subs w11, w10, #1 b.lt LBB3_64 ; %bb.66: ; in Loop: Header=BB3_65 Depth=1 lsr x12, x10, #3 ldrb w12, [x22, x12] and x13, x10, #0x7 ldrb w13, [x28, x13] tst w13, w12 b.eq LBB3_64 ; %bb.67: ; in Loop: Header=BB3_65 Depth=1 lsr x12, x11, #3 ldrb w12, [x22, x12] and x11, x11, #0x7 ldrb w11, [x28, x11] tst w11, w12 b.ne LBB3_64 ; %bb.68: ; in Loop: Header=BB3_65 Depth=1 str w10, [x20, w26, sxtw #2] add w10, w26, #1 mov x26, x10 b LBB3_64 LBB3_69: mov x0, x26 bl _free ldr x3, [sp, #24] ; 8-byte Folded Reload mov w26, #0 LBB3_70: cmp w26, w3 b.ge LBB3_72 ; %bb.71: add x0, x20, w26, sxtw #2 ldr w8, [sp, #16] ; 4-byte Folded Reload sub w8, w8, w26 lsl x8, x8, #2 add x2, x8, #4 mov w1, #255 bl _memset ldr x3, [sp, #24] ; 8-byte Folded Reload LBB3_72: cmp w26, #1 b.lt LBB3_91 ; %bb.73: mov x9, #0 mov w8, #0 mov w11, #-1 mov w10, w26 b LBB3_76 LBB3_74: ; in Loop: Header=BB3_76 Depth=1 add w8, w8, #1 mov x11, x12 LBB3_75: ; in Loop: Header=BB3_76 Depth=1 ands w12, w12, #0xfffffffe orr w13, w12, #0x1 csel w12, w13, w12, lt sub w13, w8, #1 add w12, w26, w12, asr #1 str w13, [x20, w12, sxtw #2] add x9, x9, #1 cmp x9, x10 b.eq LBB3_92 LBB3_76: ; =>This Loop Header: Depth=1 ; Child Loop BB3_80 Depth 2 ldr w12, [x20, x9, lsl #2] cmp w3, #1 b.lt LBB3_75 ; %bb.77: ; in Loop: Header=BB3_76 Depth=1 cmn w11, #1 b.eq LBB3_74 ; %bb.78: ; in Loop: Header=BB3_76 Depth=1 mov w14, #0 sxtw x13, w12 b LBB3_80 LBB3_79: ; in Loop: Header=BB3_80 Depth=2 add w14, w14, #1 cmp w14, w3 b.ge LBB3_75 LBB3_80: ; Parent Loop BB3_76 Depth=1 ; => This Inner Loop Header: Depth=2 sxtw x14, w14 add x15, x14, x13 cmp w19, #4 b.ne LBB3_82 ; %bb.81: ; in Loop: Header=BB3_80 Depth=2 ldr w16, [x21, x15, lsl #2] add w17, w14, w11 ldr w17, [x21, w17, sxtw #2] cmp w16, w17 b.eq LBB3_83 b LBB3_74 LBB3_82: ; in Loop: Header=BB3_80 Depth=2 ldrb w16, [x21, x15] add x17, x14, w11, sxtw ldrb w17, [x21, x17] cmp w16, w17 b.ne LBB3_74 LBB3_83: ; in Loop: Header=BB3_80 Depth=2 add w16, w15, #7 cmp w15, #0 csel w16, w16, w15, lt asr w17, w16, #3 ldrb w17, [x22, w17, sxtw] and w16, w16, #0xfffffff8 sub w16, w15, w16 ldrb w16, [x28, w16, sxtw] ands w0, w16, w17 cset w1, eq add w16, w14, w11 add w17, w16, #7 cmp w16, #0 csel w17, w17, w16, lt asr w2, w17, #3 ldrb w2, [x22, w2, sxtw] and w17, w17, #0xfffffff8 sub w17, w16, w17 ldrb w17, [x28, w17, sxtw] ands w17, w17, w2 cset w2, ne cmp w1, w2 b.eq LBB3_74 ; %bb.84: ; in Loop: Header=BB3_80 Depth=2 cbz w14, LBB3_79 ; %bb.85: ; in Loop: Header=BB3_80 Depth=2 cmp w15, #1 b.lt LBB3_88 ; %bb.86: ; in Loop: Header=BB3_80 Depth=2 cbz w0, LBB3_88 ; %bb.87: ; in Loop: Header=BB3_80 Depth=2 sub w15, w15, #1 lsr x0, x15, #3 ldrb w0, [x22, x0] and x15, x15, #0x7 ldrb w15, [x28, x15] tst w15, w0 b.eq LBB3_75 LBB3_88: ; in Loop: Header=BB3_80 Depth=2 subs w15, w16, #1 b.lt LBB3_79 ; %bb.89: ; in Loop: Header=BB3_80 Depth=2 cbz w17, LBB3_79 ; %bb.90: ; in Loop: Header=BB3_80 Depth=2 lsr x16, x15, #3 ldrb w16, [x22, x16] and x15, x15, #0x7 ldrb w15, [x28, x15] tst w15, w16 b.ne LBB3_79 b LBB3_75 LBB3_91: mov w8, #0 LBB3_92: sxtw x9, w3 sxtw x14, w26 cmp w26, w3 b.ge LBB3_97 ; %bb.93: sub x10, x20, #4 mov x13, x9 ldr w11, [sp, #16] ; 4-byte Folded Reload b LBB3_95 LBB3_94: ; in Loop: Header=BB3_95 Depth=1 mov x13, x12 cmp x12, x14 b.le LBB3_97 LBB3_95: ; =>This Inner Loop Header: Depth=1 sub x12, x13, #1 ldr w13, [x10, x13, lsl #2] tbnz w13, #31, LBB3_94 ; %bb.96: ; in Loop: Header=BB3_95 Depth=1 str w13, [x20, w11, sxtw #2] sub w11, w11, #1 b LBB3_94 LBB3_97: str w27, [sp, #20] ; 4-byte Folded Spill add x9, x20, x9, lsl #2 sub x27, x9, x14, lsl #2 cmp w8, w26 str x14, [sp] ; 8-byte Folded Spill b.ge LBB3_99 ; %bb.98: sub w3, w8, #1 mov x0, x27 mov x1, x20 mov x2, x26 mov w4, #4 bl _SA_IS b LBB3_102 LBB3_99: cmp w26, #1 b.lt LBB3_102 ; %bb.100: mov x8, #0 mov w9, w26 LBB3_101: ; =>This Inner Loop Header: Depth=1 ldrsw x10, [x27, x8, lsl #2] str w8, [x20, x10, lsl #2] add x8, x8, #1 cmp x9, x8 b.ne LBB3_101 LBB3_102: mov x0, x25 bl _malloc mov x25, x0 ldr w8, [sp, #20] ; 4-byte Folded Reload tbnz w8, #31, LBB3_104 ; %bb.103: mov w8, w8 lsl x8, x8, #2 add x1, x8, #4 mov x0, x25 bl _bzero LBB3_104: ldr x14, [sp, #24] ; 8-byte Folded Reload cmp w14, #1 b.lt LBB3_110 ; %bb.105: mov x8, #0 b LBB3_108 LBB3_106: ; in Loop: Header=BB3_108 Depth=1 ldrb w9, [x21, x8] LBB3_107: ; in Loop: Header=BB3_108 Depth=1 sbfiz x9, x9, #2, #32 ldr w10, [x25, x9] add w10, w10, #1 str w10, [x25, x9] add x8, x8, #1 cmp x23, x8 b.eq LBB3_110 LBB3_108: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB3_106 ; %bb.109: ; in Loop: Header=BB3_108 Depth=1 ldr w9, [x21, x8, lsl #2] b LBB3_107 LBB3_110: ldr w8, [sp, #20] ; 4-byte Folded Reload tbnz w8, #31, LBB3_113 ; %bb.111: mov w8, #0 mov x9, x25 mov x10, x24 LBB3_112: ; =>This Inner Loop Header: Depth=1 ldr w11, [x9] add w8, w11, w8 str w8, [x9], #4 subs x10, x10, #1 b.ne LBB3_112 LBB3_113: ldr w8, [sp, #12] ; 4-byte Folded Reload cbz w8, LBB3_119 ; %bb.114: mov w8, #0 mov w9, #1 b LBB3_116 LBB3_115: ; in Loop: Header=BB3_116 Depth=1 add w9, w9, #1 cmp w14, w9 b.eq LBB3_119 LBB3_116: ; =>This Inner Loop Header: Depth=1 mov w10, w9 lsr x11, x10, #3 ldrb w11, [x22, x11] and x10, x10, #0x7 ldrb w10, [x28, x10] tst w10, w11 b.eq LBB3_115 ; %bb.117: ; in Loop: Header=BB3_116 Depth=1 sub w10, w9, #1 lsr x11, x10, #3 ldrb w11, [x22, x11] and x10, x10, #0x7 ldrb w10, [x28, x10] tst w10, w11 b.ne LBB3_115 ; %bb.118: ; in Loop: Header=BB3_116 Depth=1 str w9, [x27, w8, sxtw #2] add w8, w8, #1 b LBB3_115 LBB3_119: cmp w26, #1 b.lt LBB3_122 ; %bb.120: mov w8, w26 mov x9, x20 LBB3_121: ; =>This Inner Loop Header: Depth=1 ldrsw x10, [x9] ldr w10, [x27, x10, lsl #2] str w10, [x9], #4 subs x8, x8, #1 b.ne LBB3_121 LBB3_122: cmp w26, w14 b.ge LBB3_124 ; %bb.123: ldr x8, [sp] ; 8-byte Folded Reload add x0, x20, x8, lsl #2 ldr w8, [sp, #16] ; 4-byte Folded Reload sub w8, w8, w26 lsl x8, x8, #2 add x2, x8, #4 mov w1, #255 bl _memset ldr x14, [sp, #24] ; 8-byte Folded Reload LBB3_124: cmp w26, #1 ldr w27, [sp, #20] ; 4-byte Folded Reload b.lt LBB3_130 ; %bb.125: mov w8, w26 add x8, x8, #1 mov w9, #-1 b LBB3_128 LBB3_126: ; in Loop: Header=BB3_128 Depth=1 ldrb w11, [x21, x11] LBB3_127: ; in Loop: Header=BB3_128 Depth=1 sbfiz x11, x11, #2, #32 ldrsw x12, [x25, x11] sub x12, x12, #1 str w12, [x25, x11] str w10, [x20, x12, lsl #2] sub x8, x8, #1 cmp x8, #1 b.ls LBB3_130 LBB3_128: ; =>This Inner Loop Header: Depth=1 sub w10, w8, #2 lsl x11, x10, #2 ldr w10, [x20, x11] str w9, [x20, x11] sxtw x11, w10 cmp w19, #4 b.ne LBB3_126 ; %bb.129: ; in Loop: Header=BB3_128 Depth=1 ldr w11, [x21, x11, lsl #2] b LBB3_127 LBB3_130: tbnz w27, #31, LBB3_132 ; %bb.131: mov w8, w27 lsl x8, x8, #2 add x1, x8, #4 mov x0, x25 bl _bzero ldr x14, [sp, #24] ; 8-byte Folded Reload LBB3_132: cmp w14, #1 b.lt LBB3_138 ; %bb.133: mov x8, #0 b LBB3_136 LBB3_134: ; in Loop: Header=BB3_136 Depth=1 ldrb w9, [x21, x8] LBB3_135: ; in Loop: Header=BB3_136 Depth=1 sbfiz x9, x9, #2, #32 ldr w10, [x25, x9] add w10, w10, #1 str w10, [x25, x9] add x8, x8, #1 cmp x23, x8 b.eq LBB3_138 LBB3_136: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB3_134 ; %bb.137: ; in Loop: Header=BB3_136 Depth=1 ldr w9, [x21, x8, lsl #2] b LBB3_135 LBB3_138: tbnz w27, #31, LBB3_141 ; %bb.139: mov w10, #0 mov x8, x25 mov x9, x24 LBB3_140: ; =>This Inner Loop Header: Depth=1 ldr w11, [x8] str w10, [x8], #4 add w10, w11, w10 subs x9, x9, #1 b.ne LBB3_140 LBB3_141: cmp w14, #1 b.lt LBB3_150 ; %bb.142: mov x8, x20 mov x9, x23 b LBB3_146 LBB3_143: ; in Loop: Header=BB3_146 Depth=1 ldrb w11, [x21, x10] LBB3_144: ; in Loop: Header=BB3_146 Depth=1 sbfiz x11, x11, #2, #32 ldrsw x12, [x25, x11] add w13, w12, #1 str w13, [x25, x11] str w10, [x20, x12, lsl #2] LBB3_145: ; in Loop: Header=BB3_146 Depth=1 add x8, x8, #4 subs x9, x9, #1 b.eq LBB3_150 LBB3_146: ; =>This Inner Loop Header: Depth=1 ldr w10, [x8] subs w10, w10, #1 b.lt LBB3_145 ; %bb.147: ; in Loop: Header=BB3_146 Depth=1 lsr x11, x10, #3 ldrb w11, [x22, x11] and x12, x10, #0x7 ldrb w12, [x28, x12] tst w12, w11 b.ne LBB3_145 ; %bb.148: ; in Loop: Header=BB3_146 Depth=1 cmp w19, #4 b.ne LBB3_143 ; %bb.149: ; in Loop: Header=BB3_146 Depth=1 ldr w11, [x21, x10, lsl #2] b LBB3_144 LBB3_150: tbnz w27, #31, LBB3_152 ; %bb.151: mov w8, w27 lsl x8, x8, #2 add x1, x8, #4 mov x0, x25 bl _bzero ldr x14, [sp, #24] ; 8-byte Folded Reload LBB3_152: cmp w14, #1 b.lt LBB3_158 ; %bb.153: mov x8, #0 b LBB3_156 LBB3_154: ; in Loop: Header=BB3_156 Depth=1 ldrb w9, [x21, x8] LBB3_155: ; in Loop: Header=BB3_156 Depth=1 sbfiz x9, x9, #2, #32 ldr w10, [x25, x9] add w10, w10, #1 str w10, [x25, x9] add x8, x8, #1 cmp x23, x8 b.eq LBB3_158 LBB3_156: ; =>This Inner Loop Header: Depth=1 cmp w19, #4 b.ne LBB3_154 ; %bb.157: ; in Loop: Header=BB3_156 Depth=1 ldr w9, [x21, x8, lsl #2] b LBB3_155 LBB3_158: tbnz w27, #31, LBB3_161 ; %bb.159: mov w8, #0 mov x9, x25 LBB3_160: ; =>This Inner Loop Header: Depth=1 ldr w10, [x9] add w8, w10, w8 str w8, [x9], #4 subs x24, x24, #1 b.ne LBB3_160 LBB3_161: cmp w14, #1 b.lt LBB3_170 ; %bb.162: add x8, x23, #1 b LBB3_166 LBB3_163: ; in Loop: Header=BB3_166 Depth=1 ldrb w10, [x21, x9] LBB3_164: ; in Loop: Header=BB3_166 Depth=1 sbfiz x10, x10, #2, #32 ldrsw x11, [x25, x10] sub x11, x11, #1 str w11, [x25, x10] str w9, [x20, x11, lsl #2] LBB3_165: ; in Loop: Header=BB3_166 Depth=1 sub x8, x8, #1 cmp x8, #1 b.ls LBB3_170 LBB3_166: ; =>This Inner Loop Header: Depth=1 sub w9, w8, #2 ldr w9, [x20, w9, uxtw #2] subs w9, w9, #1 b.lt LBB3_165 ; %bb.167: ; in Loop: Header=BB3_166 Depth=1 lsr x10, x9, #3 ldrb w10, [x22, x10] and x11, x9, #0x7 ldrb w11, [x28, x11] tst w11, w10 b.eq LBB3_165 ; %bb.168: ; in Loop: Header=BB3_166 Depth=1 cmp w19, #4 b.ne LBB3_163 ; %bb.169: ; in Loop: Header=BB3_166 Depth=1 ldr w10, [x21, x9, lsl #2] b LBB3_164 LBB3_170: mov x0, x25 bl _free mov x0, x22 ldp x29, x30, [sp, #112] ; 16-byte Folded Reload ldp x20, x19, [sp, #96] ; 16-byte Folded Reload ldp x22, x21, [sp, #80] ; 16-byte Folded Reload ldp x24, x23, [sp, #64] ; 16-byte Folded Reload ldp x26, x25, [sp, #48] ; 16-byte Folded Reload ldp x28, x27, [sp, #32] ; 16-byte Folded Reload add sp, sp, #128 b _free LBB3_171: mov w8, #1 b LBB3_175 LBB3_172: ; in Loop: Header=BB3_175 Depth=1 ldrb w9, [x21, x8] LBB3_173: ; in Loop: Header=BB3_175 Depth=1 sbfiz x9, x9, #2, #32 ldrsw x10, [x26, x9] sub x10, x10, #1 str w10, [x26, x9] str w8, [x20, x10, lsl #2] LBB3_174: ; in Loop: Header=BB3_175 Depth=1 add x8, x8, #1 cmp x23, x8 b.eq LBB3_179 LBB3_175: ; =>This Inner Loop Header: Depth=1 ubfx x9, x8, #3, #29 ldrb w9, [x22, x9] and x10, x8, #0x7 ldrb w10, [x28, x10] tst w10, w9 b.eq LBB3_174 ; %bb.176: ; in Loop: Header=BB3_175 Depth=1 sub x9, x8, #1 ubfx x10, x9, #3, #29 ldrb w10, [x22, x10] and x9, x9, #0x7 ldrb w9, [x28, x9] tst w9, w10 b.ne LBB3_174 ; %bb.177: ; in Loop: Header=BB3_175 Depth=1 cmp w19, #4 b.ne LBB3_172 ; %bb.178: ; in Loop: Header=BB3_175 Depth=1 ldr w9, [x21, x8, lsl #2] b LBB3_173 LBB3_179: mov w8, #1 str w8, [sp, #12] ; 4-byte Folded Spill tbz w27, #31, LBB3_24 b LBB3_25 .loh AdrpAdd Lloh4, Lloh5 .cfi_endproc ; -- End function .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: sub sp, sp, #64 .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov w0, #284 bl _malloc mov x19, x0 Lloh6: adrp x0, l_.str@PAGE Lloh7: add x0, x0, l_.str@PAGEOFF mov x1, x19 mov w2, #71 mov w3, #256 mov w4, #1 bl _SA_IS Lloh8: adrp x0, l_str@PAGE Lloh9: add x0, x0, l_str@PAGEOFF bl _puts mov x21, #0 Lloh10: adrp x20, l_.str.2@PAGE Lloh11: add x20, x20, l_.str.2@PAGEOFF LBB4_1: ; =>This Inner Loop Header: Depth=1 ldr w8, [x19, x21] str x8, [sp] mov x0, x20 bl _printf add x21, x21, #4 cmp x21, #284 b.ne LBB4_1 ; %bb.2: mov w0, #10 bl _putchar mov w0, #0 ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload add sp, sp, #64 ret .loh AdrpAdd Lloh10, Lloh11 .loh AdrpAdd Lloh8, Lloh9 .loh AdrpAdd Lloh6, Lloh7 .cfi_endproc ; -- End function .section __DATA,__data .globl _mask ; @mask _mask: .ascii "\200@ \020\b\004\002\001" .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "CCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTA$" l_.str.2: ; @.str.2 .asciz "%d " l_str: ; @str .asciz "done" .subsections_via_symbols
the_stack_data/891066.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ## -- Begin function main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $408, %rsp ## imm = 0x198 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -48(%rbp) movq 8(%rsi), %rdi leaq L_.str(%rip), %rsi callq _fopen movq %rax, %r12 leaq L_.str.1(%rip), %r14 leaq L_.str.2(%rip), %r15 xorl %ebx, %ebx xorl %r13d, %r13d jmp LBB0_1 .p2align 4, 0x90 LBB0_5: ## in Loop: Header=BB0_1 Depth=1 movq %r14, %rdi movl %ebx, %esi xorl %eax, %eax callq _printf movq %r12, %rdi callq _ftell decl %eax movslq %r13d, %rcx incl %r13d movl %eax, -448(%rbp,%rcx,4) incl %ebx LBB0_1: ## =>This Inner Loop Header: Depth=1 movq %r12, %rdi callq _fgetc shll $24, %eax cmpl $150994944, %eax ## imm = 0x9000000 je LBB0_5 ## %bb.2: ## in Loop: Header=BB0_1 Depth=1 cmpl $-16777216, %eax ## imm = 0xFF000000 je LBB0_3 ## %bb.6: ## in Loop: Header=BB0_1 Depth=1 sarl $24, %eax movq %r15, %rdi movl %ebx, %esi movl %eax, %edx xorl %eax, %eax callq _printf incl %ebx jmp LBB0_1 LBB0_3: testl %r13d, %r13d jle LBB0_4 ## %bb.7: movl %r13d, %r15d leaq L_.str.3(%rip), %r14 xorl %ebx, %ebx .p2align 4, 0x90 LBB0_8: ## =>This Inner Loop Header: Depth=1 movl -448(%rbp,%rbx,4), %esi movq %r14, %rdi xorl %eax, %eax callq _printf incq %rbx cmpq %rbx, %r15 jne LBB0_8 ## %bb.9: movl $10, %edi callq _putchar xorl %ebx, %ebx .p2align 4, 0x90 LBB0_10: ## =>This Inner Loop Header: Depth=1 movslq -448(%rbp,%rbx,4), %rsi movq %r12, %rdi xorl %edx, %edx callq _fseek movl $32, %edi movq %r12, %rsi callq _fputc incq %rbx cmpq %rbx, %r15 jne LBB0_10 jmp LBB0_11 LBB0_4: movl $10, %edi callq _putchar LBB0_11: movq %r12, %rdi callq _fflush movq %r12, %rdi callq _fclose movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -48(%rbp), %rax jne LBB0_13 ## %bb.12: xorl %eax, %eax addq $408, %rsp ## imm = 0x198 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB0_13: callq ___stack_chk_fail .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "r+" L_.str.1: ## @.str.1 .asciz "%d->tab " L_.str.2: ## @.str.2 .asciz "%d->%c " L_.str.3: ## @.str.3 .asciz "%d " .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: stp x28, x27, [sp, #-96]! ; 16-byte Folded Spill .cfi_def_cfa_offset 96 stp x26, x25, [sp, #16] ; 16-byte Folded Spill stp x24, x23, [sp, #32] ; 16-byte Folded Spill stp x22, x21, [sp, #48] ; 16-byte Folded Spill stp x20, x19, [sp, #64] ; 16-byte Folded Spill stp x29, x30, [sp, #80] ; 16-byte Folded Spill add x29, sp, #80 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 .cfi_offset w27, -88 .cfi_offset w28, -96 sub sp, sp, #432 Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] stur x8, [x29, #-88] ldr x0, [x1, #8] Lloh3: adrp x1, l_.str@PAGE Lloh4: add x1, x1, l_.str@PAGEOFF bl _fopen mov x19, x0 mov w23, #0 mov w22, #0 mov w24, #150994944 Lloh5: adrp x20, l_.str.1@PAGE Lloh6: add x20, x20, l_.str.1@PAGEOFF add x25, sp, #24 mov w26, #-16777216 Lloh7: adrp x21, l_.str.2@PAGE Lloh8: add x21, x21, l_.str.2@PAGEOFF b LBB0_2 LBB0_1: ; in Loop: Header=BB0_2 Depth=1 str x23, [sp] mov x0, x20 bl _printf mov x0, x19 bl _ftell sub w8, w0, #1 str w8, [x25, w22, sxtw #2] add w22, w22, #1 add w23, w23, #1 LBB0_2: ; =>This Inner Loop Header: Depth=1 mov x0, x19 bl _fgetc lsl w8, w0, #24 cmp w8, w24 b.eq LBB0_1 ; %bb.3: ; in Loop: Header=BB0_2 Depth=1 cmp w8, w26 b.eq LBB0_5 ; %bb.4: ; in Loop: Header=BB0_2 Depth=1 asr w8, w8, #24 mov x9, x23 stp x9, x8, [sp] mov x0, x21 bl _printf add w23, w23, #1 b LBB0_2 LBB0_5: cmp w22, #0 b.le LBB0_10 ; %bb.6: mov w21, w22 add x22, sp, #24 Lloh9: adrp x20, l_.str.3@PAGE Lloh10: add x20, x20, l_.str.3@PAGEOFF mov x23, x21 LBB0_7: ; =>This Inner Loop Header: Depth=1 ldr w8, [x22], #4 str x8, [sp] mov x0, x20 bl _printf subs x23, x23, #1 b.ne LBB0_7 ; %bb.8: mov w0, #10 bl _putchar add x20, sp, #24 LBB0_9: ; =>This Inner Loop Header: Depth=1 ldrsw x1, [x20], #4 mov x0, x19 mov w2, #0 bl _fseek mov w0, #32 mov x1, x19 bl _fputc subs x21, x21, #1 b.ne LBB0_9 b LBB0_11 LBB0_10: mov w0, #10 bl _putchar LBB0_11: mov x0, x19 bl _fflush mov x0, x19 bl _fclose ldur x8, [x29, #-88] Lloh11: adrp x9, ___stack_chk_guard@GOTPAGE Lloh12: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh13: ldr x9, [x9] cmp x9, x8 b.ne LBB0_13 ; %bb.12: mov w0, #0 add sp, sp, #432 ldp x29, x30, [sp, #80] ; 16-byte Folded Reload ldp x20, x19, [sp, #64] ; 16-byte Folded Reload ldp x22, x21, [sp, #48] ; 16-byte Folded Reload ldp x24, x23, [sp, #32] ; 16-byte Folded Reload ldp x26, x25, [sp, #16] ; 16-byte Folded Reload ldp x28, x27, [sp], #96 ; 16-byte Folded Reload ret LBB0_13: bl ___stack_chk_fail .loh AdrpAdd Lloh7, Lloh8 .loh AdrpAdd Lloh5, Lloh6 .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpAdd Lloh9, Lloh10 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "r+" l_.str.1: ; @.str.1 .asciz "%d->tab " l_.str.2: ; @.str.2 .asciz "%d->%c " l_.str.3: ; @.str.3 .asciz "%d " .subsections_via_symbols
the_stack_data/175144240.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function unixNextSystemCall _unixNextSystemCall: ## @unixNextSystemCall .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rsi, %r14 callq _UNUSED_PARAMETER testq %r14, %r14 je LBB0_1 ## %bb.2: movq _aSyscall@GOTPCREL(%rip), %r15 movq (%r15), %rdi callq _ArraySize cmpl $2, %eax jl LBB0_3 ## %bb.4: xorl %r12d, %r12d xorl %r13d, %r13d .p2align 4, 0x90 LBB0_5: ## =>This Inner Loop Header: Depth=1 movq (%r15), %rax movq (%rax,%r12), %rsi movq %r14, %rdi callq _strcmp testq %rax, %rax je LBB0_7 ## %bb.6: ## in Loop: Header=BB0_5 Depth=1 incq %r13 movq (%r15), %rdi callq _ArraySize decl %eax cltq addq $16, %r12 cmpq %rax, %r13 jl LBB0_5 jmp LBB0_7 LBB0_1: movq $-1, %r13 jmp LBB0_7 LBB0_3: xorl %r13d, %r13d LBB0_7: movslq %r13d, %rbx movq _aSyscall@GOTPCREL(%rip), %r15 movq (%r15), %rdi shlq $4, %r13 xorl %r14d, %r14d .p2align 4, 0x90 LBB0_8: ## =>This Inner Loop Header: Depth=1 incq %rbx callq _ArraySize cltq cmpq %rax, %rbx jge LBB0_11 ## %bb.9: ## in Loop: Header=BB0_8 Depth=1 leaq 16(%r13), %rax movq (%r15), %rdi cmpq $0, 24(%rdi,%r13) movq %rax, %r13 je LBB0_8 ## %bb.10: movq (%rdi,%rax), %r14 LBB0_11: movq %r14, %rax addq $8, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _aSyscall,8,3 ## @aSyscall .no_dead_strip _unixNextSystemCall .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function unixNextSystemCall _unixNextSystemCall: ; @unixNextSystemCall .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x1 bl _UNUSED_PARAMETER Lloh0: adrp x20, _aSyscall@GOTPAGE Lloh1: ldr x20, [x20, _aSyscall@GOTPAGEOFF] cbz x19, LBB0_5 ; %bb.1: ldr x0, [x20] bl _ArraySize cmp w0, #2 b.lt LBB0_6 ; %bb.2: mov x22, #0 mov x21, #0 LBB0_3: ; =>This Inner Loop Header: Depth=1 ldr x8, [x20] ldr x1, [x8, x22] mov x0, x19 bl _strcmp cbz x0, LBB0_7 ; %bb.4: ; in Loop: Header=BB0_3 Depth=1 add x21, x21, #1 ldr x0, [x20] bl _ArraySize sub w8, w0, #1 add x22, x22, #16 cmp x21, w8, sxtw b.lt LBB0_3 b LBB0_7 LBB0_5: mov x21, #-1 b LBB0_7 LBB0_6: mov x21, #0 LBB0_7: sxtw x19, w21 ldr x0, [x20] lsl x21, x21, #4 LBB0_8: ; =>This Inner Loop Header: Depth=1 add x19, x19, #1 bl _ArraySize cmp x19, w0, sxtw b.ge LBB0_11 ; %bb.9: ; in Loop: Header=BB0_8 Depth=1 add x8, x21, #16 ldr x0, [x20] add x9, x0, x21 ldr x9, [x9, #24] mov x21, x8 cbz x9, LBB0_8 ; %bb.10: ldr x0, [x0, x8] b LBB0_12 LBB0_11: mov x0, #0 LBB0_12: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpLdrGot Lloh0, Lloh1 .cfi_endproc ; -- End function .comm _aSyscall,8,3 ; @aSyscall .no_dead_strip _unixNextSystemCall .subsections_via_symbols
AnghaBench/poco/Data/SQLite/src/extr_sqlite3.c_unixNextSystemCall.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__literal8,8byte_literals .p2align 3 ## -- Begin function main LCPI0_0: .quad 0x3fe0000000000000 ## double 0.5 .section __TEXT,__text,regular,pure_instructions .globl _main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 leaq L_.str(%rip), %rdi xorl %eax, %eax callq _printf leaq L_.str.1(%rip), %rbx leaq -16(%rbp), %rsi movq %rbx, %rdi xorl %eax, %eax callq _scanf leaq L_.str.2(%rip), %rdi xorl %eax, %eax callq _printf leaq -12(%rbp), %rsi movq %rbx, %rdi xorl %eax, %eax callq _scanf movl -12(%rbp), %eax addl -16(%rbp), %eax cvtsi2sd %eax, %xmm0 mulsd LCPI0_0(%rip), %xmm0 cvtsd2ss %xmm0, %xmm0 cvtss2sd %xmm0, %xmm0 leaq L_.str.3(%rip), %rdi movb $1, %al callq _printf xorl %eax, %eax addq $8, %rsp popq %rbx popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Enter the mark 1 :" L_.str.1: ## @.str.1 .asciz "%d" L_.str.2: ## @.str.2 .asciz "Enter the mark 2 :" L_.str.3: ## @.str.3 .asciz "Average is -->: %.2f" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 Lloh0: adrp x0, l_.str@PAGE Lloh1: add x0, x0, l_.str@PAGEOFF bl _printf add x8, sp, #12 str x8, [sp] Lloh2: adrp x19, l_.str.1@PAGE Lloh3: add x19, x19, l_.str.1@PAGEOFF mov x0, x19 bl _scanf Lloh4: adrp x0, l_.str.2@PAGE Lloh5: add x0, x0, l_.str.2@PAGEOFF bl _printf add x8, sp, #8 str x8, [sp] mov x0, x19 bl _scanf ldp w9, w8, [sp, #8] add w8, w9, w8 scvtf d0, w8 fmov d1, #0.50000000 fmul d0, d0, d1 fcvt s0, d0 fcvt d0, s0 str d0, [sp] Lloh6: adrp x0, l_.str.3@PAGE Lloh7: add x0, x0, l_.str.3@PAGEOFF bl _printf mov w0, #0 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload add sp, sp, #48 ret .loh AdrpAdd Lloh6, Lloh7 .loh AdrpAdd Lloh4, Lloh5 .loh AdrpAdd Lloh2, Lloh3 .loh AdrpAdd Lloh0, Lloh1 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Enter the mark 1 :" l_.str.1: ; @.str.1 .asciz "%d" l_.str.2: ; @.str.2 .asciz "Enter the mark 2 :" l_.str.3: ; @.str.3 .asciz "Average is -->: %.2f" .subsections_via_symbols
the_stack_data/111077865.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function ev2_close_edit _ev2_close_edit: ## @ev2_close_edit .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 movq %rdi, %rbx callq _run_ev2_actions movl %eax, %edi callq _SVN_ERR movq _TRUE@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, 4(%rbx) movl (%rbx), %edi callq _svn_editor_complete movl %eax, %edi addq $8, %rsp popq %rbx popq %rbp jmp _svn_error_trace ## TAILCALL .cfi_endproc ## -- End function .comm _TRUE,4,2 ## @TRUE .no_dead_strip _ev2_close_edit .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function ev2_close_edit _ev2_close_edit: ; @ev2_close_edit .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x0 bl _run_ev2_actions bl _SVN_ERR Lloh0: adrp x8, _TRUE@GOTPAGE Lloh1: ldr x8, [x8, _TRUE@GOTPAGEOFF] Lloh2: ldr w8, [x8] str w8, [x19, #4] ldr w0, [x19] bl _svn_editor_complete ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _svn_error_trace .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _TRUE,4,2 ; @TRUE .no_dead_strip _ev2_close_edit .subsections_via_symbols
AnghaBench/freebsd/contrib/subversion/subversion/libsvn_delta/extr_compat.c_ev2_close_edit.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function getnum _getnum: ## @getnum .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 testq %rdi, %rdi je LBB0_7 ## %bb.1: movl %ecx, %r12d movl %edx, %r15d movq %rsi, %r14 movq %rdi, %r13 movb (%rdi), %bl movsbl %bl, %edi callq _is_digit testq %rax, %rax je LBB0_7 ## %bb.2: movq %r14, -48(%rbp) ## 8-byte Spill xorl %r14d, %r14d .p2align 4, 0x90 LBB0_3: ## =>This Inner Loop Header: Depth=1 leal (%r14,%r14,4), %eax movsbl %bl, %ecx leal (%rcx,%rax,2), %r14d addl $-48, %r14d cmpl %r12d, %r14d jg LBB0_7 ## %bb.4: ## in Loop: Header=BB0_3 Depth=1 movzbl 1(%r13), %ebx incq %r13 movsbl %bl, %edi callq _is_digit testq %rax, %rax jne LBB0_3 ## %bb.5: cmpl %r15d, %r14d jge LBB0_10 LBB0_7: xorl %r13d, %r13d LBB0_11: movq %r13, %rax addq $8, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB0_10: movq -48(%rbp), %rax ## 8-byte Reload movl %r14d, (%rax) jmp LBB0_11 .cfi_endproc ## -- End function .no_dead_strip _getnum .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function getnum _getnum: ; @getnum .cfi_startproc ; %bb.0: stp x26, x25, [sp, #-80]! ; 16-byte Folded Spill .cfi_def_cfa_offset 80 stp x24, x23, [sp, #16] ; 16-byte Folded Spill stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 mov x19, x0 cbz x0, LBB0_7 ; %bb.1: mov x22, x3 mov x21, x2 mov x20, x1 ldrsb w23, [x19] mov x0, x23 bl _is_digit cbz x0, LBB0_6 ; %bb.2: mov w24, #0 and w25, w23, #0xff mov w23, #10 LBB0_3: ; =>This Inner Loop Header: Depth=1 mul w8, w24, w23 add w8, w8, w25, sxtb sub w24, w8, #48 cmp w24, w22 b.gt LBB0_6 ; %bb.4: ; in Loop: Header=BB0_3 Depth=1 ldrsb w0, [x19, #1]! and w25, w0, #0xff bl _is_digit cbnz x0, LBB0_3 ; %bb.5: cmp w24, w21 b.ge LBB0_8 LBB0_6: mov x19, #0 LBB0_7: mov x0, x19 ldp x29, x30, [sp, #64] ; 16-byte Folded Reload ldp x20, x19, [sp, #48] ; 16-byte Folded Reload ldp x22, x21, [sp, #32] ; 16-byte Folded Reload ldp x24, x23, [sp, #16] ; 16-byte Folded Reload ldp x26, x25, [sp], #80 ; 16-byte Folded Reload ret LBB0_8: str w24, [x20] b LBB0_7 .cfi_endproc ; -- End function .no_dead_strip _getnum .subsections_via_symbols
AnghaBench/postgres/src/timezone/extr_localtime.c_getnum.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function vpfe_videobuf_queue _vpfe_videobuf_queue: ## @vpfe_videobuf_queue .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rsi, %r14 movq (%rdi), %rax movq (%rax), %rbx movq _debug@GOTPCREL(%rip), %rax movl (%rax), %esi leaq 8(%rbx), %rdx leaq L_.str(%rip), %rcx movl $1, %edi callq _v4l2_dbg movq %rbx, %rdi callq _spin_lock_irqsave leaq 4(%r14), %rdi leaq 4(%rbx), %rsi callq _list_add_tail movq %rbx, %rdi callq _spin_unlock_irqrestore movq _VIDEOBUF_QUEUED@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, (%r14) popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .comm _debug,4,2 ## @debug .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "vpfe_buffer_queue\n" .comm _VIDEOBUF_QUEUED,4,2 ## @VIDEOBUF_QUEUED .no_dead_strip _vpfe_videobuf_queue .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function vpfe_videobuf_queue _vpfe_videobuf_queue: ; @vpfe_videobuf_queue .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x1 ldr x8, [x0] ldr x20, [x8] Lloh0: adrp x8, _debug@GOTPAGE Lloh1: ldr x8, [x8, _debug@GOTPAGEOFF] Lloh2: ldr w1, [x8] add x2, x20, #8 Lloh3: adrp x3, l_.str@PAGE Lloh4: add x3, x3, l_.str@PAGEOFF mov w0, #1 bl _v4l2_dbg mov x0, x20 bl _spin_lock_irqsave add x0, x19, #4 add x1, x20, #4 bl _list_add_tail mov x0, x20 bl _spin_unlock_irqrestore Lloh5: adrp x8, _VIDEOBUF_QUEUED@GOTPAGE Lloh6: ldr x8, [x8, _VIDEOBUF_QUEUED@GOTPAGEOFF] Lloh7: ldr w8, [x8] str w8, [x19] ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _debug,4,2 ; @debug .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "vpfe_buffer_queue\n" .comm _VIDEOBUF_QUEUED,4,2 ; @VIDEOBUF_QUEUED .no_dead_strip _vpfe_videobuf_queue .subsections_via_symbols
AnghaBench/linux/drivers/media/platform/davinci/extr_vpfe_capture.c_vpfe_videobuf_queue.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _enqueue ## -- Begin function enqueue .p2align 4, 0x90 _enqueue: ## @enqueue .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %edx, %r15d movl %esi, %ebx movq %rdi, %r14 movl $16, %edi callq _malloc testq %rax, %rax je LBB0_1 ## %bb.2: movl %r15d, (%rax) movl %ebx, 4(%rax) testq %r14, %r14 je LBB0_9 ## %bb.3: cmpl %ebx, 4(%r14) jle LBB0_4 LBB0_9: movq %r14, 8(%rax) movq %rax, %r14 jmp LBB0_8 LBB0_1: leaq L_str(%rip), %rdi callq _puts jmp LBB0_8 LBB0_4: movq %r14, %rcx .p2align 4, 0x90 LBB0_5: ## =>This Inner Loop Header: Depth=1 movq %rcx, %rdx movq 8(%rcx), %rcx testq %rcx, %rcx je LBB0_7 ## %bb.6: ## in Loop: Header=BB0_5 Depth=1 cmpl %ebx, 4(%rcx) jle LBB0_5 LBB0_7: movq %rcx, 8(%rax) movq %rax, 8(%rdx) LBB0_8: movq %r14, %rax addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .globl _dequeue ## -- Begin function dequeue .p2align 4, 0x90 _dequeue: ## @dequeue .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 testq %rdi, %rdi je LBB1_1 ## %bb.2: movq %rdi, %rbx movq 8(%rdi), %r14 movl (%rdi), %esi movl 4(%rdi), %edx leaq L_.str.2(%rip), %rdi xorl %eax, %eax callq _printf movq %rbx, %rdi callq _free jmp LBB1_3 LBB1_1: leaq L_str.14(%rip), %rdi callq _puts xorl %r14d, %r14d LBB1_3: movq %r14, %rax popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .globl _display ## -- Begin function display .p2align 4, 0x90 _display: ## @display .cfi_startproc ## %bb.0: testq %rdi, %rdi je LBB2_4 ## %bb.1: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rdi, %rbx leaq L_.str.3(%rip), %r14 .p2align 4, 0x90 LBB2_2: ## =>This Inner Loop Header: Depth=1 movl (%rbx), %esi movq %r14, %rdi xorl %eax, %eax callq _printf movq 8(%rbx), %rbx testq %rbx, %rbx jne LBB2_2 ## %bb.3: popq %rbx popq %r14 popq %rbp retq LBB2_4: leaq L_str.14(%rip), %rdi jmp _puts ## TAILCALL .cfi_endproc ## -- End function .globl _main ## -- Begin function main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $24, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 leaq L_str.15(%rip), %rdi callq _puts leaq L_str.16(%rip), %rdi callq _puts leaq L_str.17(%rip), %rdi callq _puts leaq L_str.18(%rip), %rdi callq _puts leaq L_.str.8(%rip), %r12 leaq -44(%rbp), %r14 leaq L_.str.3(%rip), %r13 xorl %r15d, %r15d jmp LBB3_1 .p2align 4, 0x90 LBB3_17: ## in Loop: Header=BB3_1 Depth=1 leaq L_str.21(%rip), %rdi callq _puts LBB3_18: ## in Loop: Header=BB3_1 Depth=1 leaq L_str.19(%rip), %rdi callq _puts LBB3_1: ## =>This Loop Header: Depth=1 ## Child Loop BB3_16 Depth 2 ## Child Loop BB3_9 Depth 2 movq %r12, %rdi movq %r14, %rsi xorl %eax, %eax callq _scanf movl -44(%rbp), %eax decl %eax cmpl $3, %eax ja LBB3_17 ## %bb.2: ## in Loop: Header=BB3_1 Depth=1 leaq LJTI3_0(%rip), %rcx movslq (%rcx,%rax,4), %rax addq %rcx, %rax jmpq *%rax LBB3_3: ## in Loop: Header=BB3_1 Depth=1 movq %r12, %r14 leaq L_str.20(%rip), %rdi callq _puts leaq L_.str.10(%rip), %rdi leaq -48(%rbp), %rsi leaq -52(%rbp), %rdx xorl %eax, %eax callq _scanf movl -48(%rbp), %r12d movl -52(%rbp), %ebx movl $16, %edi callq _malloc testq %rax, %rax je LBB3_4 ## %bb.5: ## in Loop: Header=BB3_1 Depth=1 movl %ebx, (%rax) movl %r12d, 4(%rax) testq %r15, %r15 je LBB3_7 ## %bb.6: ## in Loop: Header=BB3_1 Depth=1 movq %r15, %rcx cmpl %r12d, 4(%r15) jle LBB3_9 LBB3_7: ## in Loop: Header=BB3_1 Depth=1 movq %r15, 8(%rax) movq %rax, %r15 jmp LBB3_8 .p2align 4, 0x90 LBB3_9: ## Parent Loop BB3_1 Depth=1 ## => This Inner Loop Header: Depth=2 movq %rcx, %rdx movq 8(%rcx), %rcx testq %rcx, %rcx je LBB3_11 ## %bb.10: ## in Loop: Header=BB3_9 Depth=2 cmpl %r12d, 4(%rcx) jle LBB3_9 LBB3_11: ## in Loop: Header=BB3_1 Depth=1 movq %rcx, 8(%rax) movq %rax, 8(%rdx) jmp LBB3_8 .p2align 4, 0x90 LBB3_12: ## in Loop: Header=BB3_1 Depth=1 testq %r15, %r15 je LBB3_13 ## %bb.14: ## in Loop: Header=BB3_1 Depth=1 movq 8(%r15), %rbx movl (%r15), %esi movl 4(%r15), %edx leaq L_.str.2(%rip), %rdi xorl %eax, %eax callq _printf movq %r15, %rdi callq _free movq %rbx, %r15 jmp LBB3_18 .p2align 4, 0x90 LBB3_15: ## in Loop: Header=BB3_1 Depth=1 movq %r15, %rbx testq %r15, %r15 je LBB3_13 .p2align 4, 0x90 LBB3_16: ## Parent Loop BB3_1 Depth=1 ## => This Inner Loop Header: Depth=2 movl (%rbx), %esi movq %r13, %rdi xorl %eax, %eax callq _printf movq 8(%rbx), %rbx testq %rbx, %rbx jne LBB3_16 jmp LBB3_18 LBB3_13: ## in Loop: Header=BB3_1 Depth=1 leaq L_str.14(%rip), %rdi callq _puts xorl %r15d, %r15d jmp LBB3_18 LBB3_4: ## in Loop: Header=BB3_1 Depth=1 leaq L_str(%rip), %rdi callq _puts LBB3_8: ## in Loop: Header=BB3_1 Depth=1 movq %r14, %r12 leaq -44(%rbp), %r14 jmp LBB3_18 LBB3_19: addq $24, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc .p2align 2, 0x90 .data_region jt32 .set L3_0_set_3, LBB3_3-LJTI3_0 .set L3_0_set_12, LBB3_12-LJTI3_0 .set L3_0_set_15, LBB3_15-LJTI3_0 .set L3_0_set_19, LBB3_19-LJTI3_0 LJTI3_0: .long L3_0_set_3 .long L3_0_set_12 .long L3_0_set_15 .long L3_0_set_19 .end_data_region ## -- End function .section __TEXT,__cstring,cstring_literals L_.str.2: ## @.str.2 .asciz "%d with priority %d is processed" L_.str.3: ## @.str.3 .asciz "%d " L_.str.8: ## @.str.8 .asciz "%d" L_.str.10: ## @.str.10 .asciz "%d %d" L_str: ## @str .asciz "Malloc Failed" L_str.14: ## @str.14 .asciz "List is empty" L_str.15: ## @str.15 .asciz "Enter 1 for enqueue" L_str.16: ## @str.16 .asciz "Enter 2 for dequeue" L_str.17: ## @str.17 .asciz "Enter 3 for display" L_str.18: ## @str.18 .asciz "Enter 4 for EXIT" L_str.19: ## @str.19 .asciz "Enter 1/2/3/4 :" L_str.20: ## @str.20 .asciz "Enter priority and value respectively" L_str.21: ## @str.21 .asciz "Enter value between 1 to 4" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _enqueue ; -- Begin function enqueue .p2align 2 _enqueue: ; @enqueue .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x21, x2 mov x20, x1 mov x19, x0 mov w0, #16 bl _malloc cbz x0, LBB0_4 ; %bb.1: stp w21, w20, [x0] cbz x19, LBB0_3 ; %bb.2: ldr w8, [x19, #4] cmp w8, w20 b.le LBB0_5 LBB0_3: str x19, [x0, #8] mov x19, x0 b LBB0_9 LBB0_4: Lloh0: adrp x0, l_str@PAGE Lloh1: add x0, x0, l_str@PAGEOFF bl _puts b LBB0_9 LBB0_5: mov x8, x19 LBB0_6: ; =>This Inner Loop Header: Depth=1 mov x9, x8 ldr x8, [x8, #8] cbz x8, LBB0_8 ; %bb.7: ; in Loop: Header=BB0_6 Depth=1 ldr w10, [x8, #4] cmp w10, w20 b.le LBB0_6 LBB0_8: str x8, [x0, #8] str x0, [x9, #8] LBB0_9: mov x0, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpAdd Lloh0, Lloh1 .cfi_endproc ; -- End function .globl _dequeue ; -- Begin function dequeue .p2align 2 _dequeue: ; @dequeue .cfi_startproc ; %bb.0: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 cbz x0, LBB1_2 ; %bb.1: mov x20, x0 ldr x19, [x0, #8] ldp w8, w9, [x0] stp x8, x9, [sp] Lloh2: adrp x0, l_.str.2@PAGE Lloh3: add x0, x0, l_.str.2@PAGEOFF bl _printf mov x0, x20 bl _free b LBB1_3 LBB1_2: Lloh4: adrp x0, l_str.14@PAGE Lloh5: add x0, x0, l_str.14@PAGEOFF bl _puts mov x19, #0 LBB1_3: mov x0, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload add sp, sp, #48 ret .loh AdrpAdd Lloh2, Lloh3 .loh AdrpAdd Lloh4, Lloh5 .cfi_endproc ; -- End function .globl _display ; -- Begin function display .p2align 2 _display: ; @display .cfi_startproc ; %bb.0: cbz x0, LBB2_4 ; %bb.1: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x0 Lloh6: adrp x20, l_.str.3@PAGE Lloh7: add x20, x20, l_.str.3@PAGEOFF LBB2_2: ; =>This Inner Loop Header: Depth=1 ldr w8, [x19] str x8, [sp] mov x0, x20 bl _printf ldr x19, [x19, #8] cbnz x19, LBB2_2 ; %bb.3: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload add sp, sp, #48 ret LBB2_4: .cfi_def_cfa wsp, 0 .cfi_same_value w30 .cfi_same_value w29 .cfi_same_value w19 .cfi_same_value w20 Lloh8: adrp x0, l_str.14@PAGE Lloh9: add x0, x0, l_str.14@PAGEOFF b _puts .loh AdrpAdd Lloh6, Lloh7 .loh AdrpAdd Lloh8, Lloh9 .cfi_endproc ; -- End function .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: sub sp, sp, #128 .cfi_def_cfa_offset 128 stp x28, x27, [sp, #32] ; 16-byte Folded Spill stp x26, x25, [sp, #48] ; 16-byte Folded Spill stp x24, x23, [sp, #64] ; 16-byte Folded Spill stp x22, x21, [sp, #80] ; 16-byte Folded Spill stp x20, x19, [sp, #96] ; 16-byte Folded Spill stp x29, x30, [sp, #112] ; 16-byte Folded Spill add x29, sp, #112 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 .cfi_offset w27, -88 .cfi_offset w28, -96 Lloh10: adrp x0, l_str.15@PAGE Lloh11: add x0, x0, l_str.15@PAGEOFF bl _puts Lloh12: adrp x0, l_str.16@PAGE Lloh13: add x0, x0, l_str.16@PAGEOFF bl _puts Lloh14: adrp x0, l_str.17@PAGE Lloh15: add x0, x0, l_str.17@PAGEOFF bl _puts Lloh16: adrp x0, l_str.18@PAGE Lloh17: add x0, x0, l_str.18@PAGEOFF bl _puts mov x28, #0 add x24, sp, #28 Lloh18: adrp x19, l_.str.8@PAGE Lloh19: add x19, x19, l_.str.8@PAGEOFF Lloh20: adrp x21, l_str.19@PAGE Lloh21: add x21, x21, l_str.19@PAGEOFF Lloh22: adrp x26, lJTI3_0@PAGE Lloh23: add x26, x26, lJTI3_0@PAGEOFF add x20, sp, #20 Lloh24: adrp x23, l_.str.10@PAGE Lloh25: add x23, x23, l_.str.10@PAGEOFF Lloh26: adrp x27, l_.str.3@PAGE Lloh27: add x27, x27, l_.str.3@PAGEOFF b LBB3_4 LBB3_1: ; in Loop: Header=BB3_4 Depth=1 Lloh28: adrp x0, l_str.21@PAGE Lloh29: add x0, x0, l_str.21@PAGEOFF LBB3_2: ; in Loop: Header=BB3_4 Depth=1 bl _puts LBB3_3: ; in Loop: Header=BB3_4 Depth=1 mov x0, x21 bl _puts LBB3_4: ; =>This Loop Header: Depth=1 ; Child Loop BB3_16 Depth 2 ; Child Loop BB3_10 Depth 2 str x24, [sp] mov x0, x19 bl _scanf ldr w8, [sp, #28] sub w8, w8, #1 cmp w8, #3 b.hi LBB3_1 ; %bb.5: ; in Loop: Header=BB3_4 Depth=1 adr x9, LBB3_6 ldrb w10, [x26, x8] add x9, x9, x10, lsl #2 br x9 LBB3_6: ; in Loop: Header=BB3_4 Depth=1 Lloh30: adrp x0, l_str.20@PAGE Lloh31: add x0, x0, l_str.20@PAGEOFF bl _puts add x8, sp, #24 stp x20, x8, [sp] mov x0, x23 bl _scanf ldp w25, w22, [sp, #20] mov w0, #16 bl _malloc cbz x0, LBB3_18 ; %bb.7: ; in Loop: Header=BB3_4 Depth=1 stp w22, w25, [x0] cbz x28, LBB3_9 ; %bb.8: ; in Loop: Header=BB3_4 Depth=1 ldr w9, [x28, #4] mov x8, x28 cmp w9, w25 b.le LBB3_10 LBB3_9: ; in Loop: Header=BB3_4 Depth=1 str x28, [x0, #8] mov x28, x0 b LBB3_3 LBB3_10: ; Parent Loop BB3_4 Depth=1 ; => This Inner Loop Header: Depth=2 mov x9, x8 ldr x8, [x8, #8] cbz x8, LBB3_12 ; %bb.11: ; in Loop: Header=BB3_10 Depth=2 ldr w10, [x8, #4] cmp w10, w25 b.le LBB3_10 LBB3_12: ; in Loop: Header=BB3_4 Depth=1 str x8, [x0, #8] str x0, [x9, #8] b LBB3_3 LBB3_13: ; in Loop: Header=BB3_4 Depth=1 cbz x28, LBB3_17 ; %bb.14: ; in Loop: Header=BB3_4 Depth=1 ldr x22, [x28, #8] ldp w8, w9, [x28] stp x8, x9, [sp] Lloh32: adrp x0, l_.str.2@PAGE Lloh33: add x0, x0, l_.str.2@PAGEOFF bl _printf mov x0, x28 bl _free mov x28, x22 b LBB3_3 LBB3_15: ; in Loop: Header=BB3_4 Depth=1 mov x25, x28 cbz x28, LBB3_17 LBB3_16: ; Parent Loop BB3_4 Depth=1 ; => This Inner Loop Header: Depth=2 ldr w8, [x25] str x8, [sp] mov x0, x27 bl _printf ldr x25, [x25, #8] cbnz x25, LBB3_16 b LBB3_3 LBB3_17: ; in Loop: Header=BB3_4 Depth=1 Lloh34: adrp x0, l_str.14@PAGE Lloh35: add x0, x0, l_str.14@PAGEOFF b LBB3_2 LBB3_18: ; in Loop: Header=BB3_4 Depth=1 Lloh36: adrp x0, l_str@PAGE Lloh37: add x0, x0, l_str@PAGEOFF b LBB3_2 LBB3_19: ldp x29, x30, [sp, #112] ; 16-byte Folded Reload ldp x20, x19, [sp, #96] ; 16-byte Folded Reload ldp x22, x21, [sp, #80] ; 16-byte Folded Reload ldp x24, x23, [sp, #64] ; 16-byte Folded Reload ldp x26, x25, [sp, #48] ; 16-byte Folded Reload ldp x28, x27, [sp, #32] ; 16-byte Folded Reload add sp, sp, #128 ret .loh AdrpAdd Lloh26, Lloh27 .loh AdrpAdd Lloh24, Lloh25 .loh AdrpAdd Lloh22, Lloh23 .loh AdrpAdd Lloh20, Lloh21 .loh AdrpAdd Lloh18, Lloh19 .loh AdrpAdd Lloh16, Lloh17 .loh AdrpAdd Lloh14, Lloh15 .loh AdrpAdd Lloh12, Lloh13 .loh AdrpAdd Lloh10, Lloh11 .loh AdrpAdd Lloh28, Lloh29 .loh AdrpAdd Lloh30, Lloh31 .loh AdrpAdd Lloh32, Lloh33 .loh AdrpAdd Lloh34, Lloh35 .loh AdrpAdd Lloh36, Lloh37 .cfi_endproc .section __TEXT,__const lJTI3_0: .byte (LBB3_6-LBB3_6)>>2 .byte (LBB3_13-LBB3_6)>>2 .byte (LBB3_15-LBB3_6)>>2 .byte (LBB3_19-LBB3_6)>>2 ; -- End function .section __TEXT,__cstring,cstring_literals l_.str.2: ; @.str.2 .asciz "%d with priority %d is processed" l_.str.3: ; @.str.3 .asciz "%d " l_.str.8: ; @.str.8 .asciz "%d" l_.str.10: ; @.str.10 .asciz "%d %d" l_str: ; @str .asciz "Malloc Failed" l_str.14: ; @str.14 .asciz "List is empty" l_str.15: ; @str.15 .asciz "Enter 1 for enqueue" l_str.16: ; @str.16 .asciz "Enter 2 for dequeue" l_str.17: ; @str.17 .asciz "Enter 3 for display" l_str.18: ; @str.18 .asciz "Enter 4 for EXIT" l_str.19: ; @str.19 .asciz "Enter 1/2/3/4 :" l_str.20: ; @str.20 .asciz "Enter priority and value respectively" l_str.21: ; @str.21 .asciz "Enter value between 1 to 4" .subsections_via_symbols
the_stack_data/272311.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function i40e_mqprio_get_enabled_tc _i40e_mqprio_get_enabled_tc: ## @i40e_mqprio_get_enabled_tc .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq (%rdi), %rax movq 8(%rdi), %rcx movq (%rcx,%rax,8), %rax movl (%rax), %r15d movl $1, %r14d cmpl $2, %r15d jl LBB0_3 ## %bb.1: movl $1, %ebx movl $1, %r14d .p2align 4, 0x90 LBB0_2: ## =>This Inner Loop Header: Depth=1 movl %ebx, %edi callq _BIT orl %eax, %r14d incl %ebx cmpl %ebx, %r15d jne LBB0_2 LBB0_3: movl %r14d, %eax addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .no_dead_strip _i40e_mqprio_get_enabled_tc .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function i40e_mqprio_get_enabled_tc _i40e_mqprio_get_enabled_tc: ; @i40e_mqprio_get_enabled_tc .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 ldp x9, x8, [x0] ldr x8, [x8, x9, lsl #3] ldr w21, [x8] cmp w21, #2 b.lt LBB0_3 ; %bb.1: mov w20, #1 mov w19, #1 LBB0_2: ; =>This Inner Loop Header: Depth=1 mov x0, x20 bl _BIT orr w19, w0, w19 add w20, w20, #1 cmp w21, w20 b.ne LBB0_2 b LBB0_4 LBB0_3: mov w19, #1 LBB0_4: mov x0, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .cfi_endproc ; -- End function .no_dead_strip _i40e_mqprio_get_enabled_tc .subsections_via_symbols
AnghaBench/linux/drivers/net/ethernet/intel/i40e/extr_i40e_main.c_i40e_mqprio_get_enabled_tc.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function rtl8xxxu_sw_scan_complete _rtl8xxxu_sw_scan_complete: ## @rtl8xxxu_sw_scan_complete .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq (%rdi), %rbx movq _REG_BEACON_CTRL@GOTPCREL(%rip), %r14 movl (%r14), %esi movq %rbx, %rdi callq _rtl8xxxu_read8 movq _BEACON_DISABLE_TSF_UPDATE@GOTPCREL(%rip), %rcx movl (%rcx), %edx notl %edx andl %eax, %edx movl (%r14), %esi movq %rbx, %rdi popq %rbx popq %r14 popq %rbp jmp _rtl8xxxu_write8 ## TAILCALL .cfi_endproc ## -- End function .comm _REG_BEACON_CTRL,4,2 ## @REG_BEACON_CTRL .comm _BEACON_DISABLE_TSF_UPDATE,4,2 ## @BEACON_DISABLE_TSF_UPDATE .no_dead_strip _rtl8xxxu_sw_scan_complete .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function rtl8xxxu_sw_scan_complete _rtl8xxxu_sw_scan_complete: ; @rtl8xxxu_sw_scan_complete .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 ldr x19, [x0] Lloh0: adrp x20, _REG_BEACON_CTRL@GOTPAGE Lloh1: ldr x20, [x20, _REG_BEACON_CTRL@GOTPAGEOFF] ldr w1, [x20] mov x0, x19 bl _rtl8xxxu_read8 Lloh2: adrp x8, _BEACON_DISABLE_TSF_UPDATE@GOTPAGE Lloh3: ldr x8, [x8, _BEACON_DISABLE_TSF_UPDATE@GOTPAGEOFF] Lloh4: ldr w8, [x8] bic w2, w0, w8 ldr w1, [x20] mov x0, x19 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _rtl8xxxu_write8 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpLdrGot Lloh0, Lloh1 .cfi_endproc ; -- End function .comm _REG_BEACON_CTRL,4,2 ; @REG_BEACON_CTRL .comm _BEACON_DISABLE_TSF_UPDATE,4,2 ; @BEACON_DISABLE_TSF_UPDATE .no_dead_strip _rtl8xxxu_sw_scan_complete .subsections_via_symbols
AnghaBench/linux/drivers/net/wireless/realtek/rtl8xxxu/extr_rtl8xxxu_core.c_rtl8xxxu_sw_scan_complete.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function imx2_wdt_restart _imx2_wdt_restart: ## @imx2_wdt_restart .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 callq _watchdog_get_drvdata movq %rax, %r14 movq _IMX2_WDT_WCR_WDE@GOTPCREL(%rip), %rax cmpq $0, 8(%r14) jne LBB0_1 ## %bb.2: movq _IMX2_WDT_WCR_WDA@GOTPCREL(%rip), %rcx jmp LBB0_3 LBB0_1: movq _IMX2_WDT_WCR_SRS@GOTPCREL(%rip), %rcx LBB0_3: movl (%rcx), %ebx orl (%rax), %ebx movl (%r14), %edi movq _IMX2_WDT_WCR@GOTPCREL(%rip), %r15 movl (%r15), %esi movl %ebx, %edx callq _regmap_write movl (%r14), %edi movl (%r15), %esi movl %ebx, %edx callq _regmap_write movl (%r14), %edi movl (%r15), %esi movl %ebx, %edx callq _regmap_write movl $500, %edi ## imm = 0x1F4 callq _mdelay xorl %eax, %eax addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _IMX2_WDT_WCR_WDE,4,2 ## @IMX2_WDT_WCR_WDE .comm _IMX2_WDT_WCR_SRS,4,2 ## @IMX2_WDT_WCR_SRS .comm _IMX2_WDT_WCR_WDA,4,2 ## @IMX2_WDT_WCR_WDA .comm _IMX2_WDT_WCR,4,2 ## @IMX2_WDT_WCR .no_dead_strip _imx2_wdt_restart .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function imx2_wdt_restart _imx2_wdt_restart: ; @imx2_wdt_restart .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 bl _watchdog_get_drvdata mov x19, x0 Lloh0: adrp x8, _IMX2_WDT_WCR_WDE@GOTPAGE Lloh1: ldr x8, [x8, _IMX2_WDT_WCR_WDE@GOTPAGEOFF] Lloh2: ldr w8, [x8] ldr x9, [x0, #8] Lloh3: adrp x10, _IMX2_WDT_WCR_WDA@GOTPAGE Lloh4: ldr x10, [x10, _IMX2_WDT_WCR_WDA@GOTPAGEOFF] Lloh5: adrp x11, _IMX2_WDT_WCR_SRS@GOTPAGE Lloh6: ldr x11, [x11, _IMX2_WDT_WCR_SRS@GOTPAGEOFF] cmp x9, #0 csel x9, x10, x11, eq ldr w9, [x9] orr w20, w9, w8 ldr w0, [x0] Lloh7: adrp x21, _IMX2_WDT_WCR@GOTPAGE Lloh8: ldr x21, [x21, _IMX2_WDT_WCR@GOTPAGEOFF] ldr w1, [x21] mov x2, x20 bl _regmap_write ldr w0, [x19] ldr w1, [x21] mov x2, x20 bl _regmap_write ldr w0, [x19] ldr w1, [x21] mov x2, x20 bl _regmap_write mov w0, #500 bl _mdelay mov w0, #0 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpLdrGot Lloh7, Lloh8 .loh AdrpLdrGot Lloh5, Lloh6 .loh AdrpLdrGot Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _IMX2_WDT_WCR_WDE,4,2 ; @IMX2_WDT_WCR_WDE .comm _IMX2_WDT_WCR_SRS,4,2 ; @IMX2_WDT_WCR_SRS .comm _IMX2_WDT_WCR_WDA,4,2 ; @IMX2_WDT_WCR_WDA .comm _IMX2_WDT_WCR,4,2 ; @IMX2_WDT_WCR .no_dead_strip _imx2_wdt_restart .subsections_via_symbols
AnghaBench/linux/drivers/watchdog/extr_imx2_wdt.c_imx2_wdt_restart.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function avc_chroma_vt_4x8_msa _avc_chroma_vt_4x8_msa: ## @avc_chroma_vt_4x8_msa .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $56, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %r8d, %r13d movl %edx, %r15d movq %rsi, %r14 movq %rdi, %r12 movl %ecx, %edi callq ___msa_fill_b movl %eax, %ebx movl %r13d, %edi callq ___msa_fill_b movl %ebx, %edi movl %eax, %esi callq ___msa_ilvr_b movl %eax, %ebx movq %r12, %rdi movl %r15d, %esi callq _LD_UB5 leal (%r15,%r15,4), %eax cltq leaq (%r12,%rax,4), %rdi movl %r15d, %esi callq _LD_UB4 callq _ILVR_B4_UB callq _ILVR_B4_UB callq _ILVR_D2_UB callq _ILVR_D2_UB movl %ebx, %edx movl %ebx, %ecx callq _DOTP_UB2_UH movl %ebx, %edx movl %ebx, %ecx callq _DOTP_UB2_UH movl $3, %r8d callq _SLLI_4V movl $6, %r8d callq _SRARI_H4_UH movl $7, %r8d callq _SAT_UH4_UH callq _PCKEV_B2_UB movl %r15d, 40(%rsp) movq %r14, 32(%rsp) movl $3, 24(%rsp) movl $2, 16(%rsp) movl $1, 8(%rsp) movl $0, (%rsp) xorl %edx, %edx movl $1, %ecx movl $2, %r8d movl $3, %r9d callq _ST_W8 addq $56, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .no_dead_strip _avc_chroma_vt_4x8_msa .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function avc_chroma_vt_4x8_msa _avc_chroma_vt_4x8_msa: ; @avc_chroma_vt_4x8_msa .cfi_startproc ; %bb.0: sub sp, sp, #96 .cfi_def_cfa_offset 96 stp x24, x23, [sp, #32] ; 16-byte Folded Spill stp x22, x21, [sp, #48] ; 16-byte Folded Spill stp x20, x19, [sp, #64] ; 16-byte Folded Spill stp x29, x30, [sp, #80] ; 16-byte Folded Spill add x29, sp, #80 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x21, x4 mov x20, x2 mov x19, x1 mov x22, x0 mov x0, x3 bl ___msa_fill_b mov x23, x0 mov x0, x21 bl ___msa_fill_b mov x1, x0 mov x0, x23 bl ___msa_ilvr_b mov x21, x0 mov x0, x22 mov x1, x20 bl _LD_UB5 add w8, w20, w20, lsl #2 add x0, x22, w8, sxtw #2 mov x1, x20 bl _LD_UB4 bl _ILVR_B4_UB bl _ILVR_B4_UB bl _ILVR_D2_UB bl _ILVR_D2_UB mov x2, x21 mov x3, x21 bl _DOTP_UB2_UH mov x2, x21 mov x3, x21 bl _DOTP_UB2_UH mov w4, #3 bl _SLLI_4V mov w4, #6 bl _SRARI_H4_UH mov w4, #7 bl _SAT_UH4_UH bl _PCKEV_B2_UB str w20, [sp, #16] mov x8, #2 movk x8, #3, lsl #32 stp x8, x19, [sp] mov w2, #0 mov w3, #1 mov w4, #2 mov w5, #3 mov w6, #0 mov w7, #1 bl _ST_W8 ldp x29, x30, [sp, #80] ; 16-byte Folded Reload ldp x20, x19, [sp, #64] ; 16-byte Folded Reload ldp x22, x21, [sp, #48] ; 16-byte Folded Reload ldp x24, x23, [sp, #32] ; 16-byte Folded Reload add sp, sp, #96 ret .cfi_endproc ; -- End function .no_dead_strip _avc_chroma_vt_4x8_msa .subsections_via_symbols
AnghaBench/FFmpeg/libavcodec/mips/extr_h264chroma_msa.c_avc_chroma_vt_4x8_msa.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _fe_reg_r32 ## -- Begin function fe_reg_r32 .p2align 4, 0x90 _fe_reg_r32: ## @fe_reg_r32 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq _fe_reg_table@GOTPCREL(%rip), %rax movq (%rax), %rax movl %edi, %ecx movl (%rax,%rcx,4), %edi popq %rbp jmp _fe_r32 ## TAILCALL .cfi_endproc ## -- End function .comm _fe_reg_table,8,3 ## @fe_reg_table .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _fe_reg_r32 ; -- Begin function fe_reg_r32 .p2align 2 _fe_reg_r32: ; @fe_reg_r32 .cfi_startproc ; %bb.0: Lloh0: adrp x8, _fe_reg_table@GOTPAGE Lloh1: ldr x8, [x8, _fe_reg_table@GOTPAGEOFF] Lloh2: ldr x8, [x8] ldr w0, [x8, w0, uxtw #2] b _fe_r32 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _fe_reg_table,8,3 ; @fe_reg_table .subsections_via_symbols
AnghaBench/openwrt/target/linux/ramips/files-4.14/drivers/net/ethernet/mediatek/extr_mtk_eth_soc.c_fe_reg_r32.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _gk104_gr_init_ppc_exceptions ## -- Begin function gk104_gr_init_ppc_exceptions .p2align 4, 0x90 _gk104_gr_init_ppc_exceptions: ## @gk104_gr_init_ppc_exceptions .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl (%rdi), %ecx testl %ecx, %ecx jle LBB0_9 ## %bb.1: movq %rdi, %r15 movq 24(%rdi), %r14 movq 8(%rdi), %rax xorl %r12d, %r12d jmp LBB0_2 .p2align 4, 0x90 LBB0_7: ## in Loop: Header=BB0_2 Depth=1 movl (%r15), %ecx LBB0_8: ## in Loop: Header=BB0_2 Depth=1 incq %r12 movslq %ecx, %rdx cmpq %rdx, %r12 jge LBB0_9 LBB0_2: ## =>This Loop Header: Depth=1 ## Child Loop BB0_4 Depth 2 cmpl $0, (%rax,%r12,4) jle LBB0_8 ## %bb.3: ## in Loop: Header=BB0_2 Depth=1 xorl %ebx, %ebx jmp LBB0_4 .p2align 4, 0x90 LBB0_6: ## in Loop: Header=BB0_4 Depth=2 incl %ebx cmpl (%rax,%r12,4), %ebx jge LBB0_7 LBB0_4: ## Parent Loop BB0_2 Depth=1 ## => This Inner Loop Header: Depth=2 movq 16(%r15), %rcx movl (%rcx,%r12,4), %ecx btl %ebx, %ecx jae LBB0_6 ## %bb.5: ## in Loop: Header=BB0_4 Depth=2 movl %r12d, %edi movl %ebx, %esi movl $56, %edx callq _PPC_UNIT movq %r14, %rdi movl %eax, %esi movl $-1073741824, %edx ## imm = 0xC0000000 callq _nvkm_wr32 movq 8(%r15), %rax jmp LBB0_6 LBB0_9: popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _gk104_gr_init_ppc_exceptions ; -- Begin function gk104_gr_init_ppc_exceptions .p2align 2 _gk104_gr_init_ppc_exceptions: ; @gk104_gr_init_ppc_exceptions .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 ldr w9, [x0] cmp w9, #1 b.lt LBB0_9 ; %bb.1: mov x19, x0 mov x20, #0 ldr x21, [x0, #24] ldr x8, [x0, #8] b LBB0_4 LBB0_2: ; in Loop: Header=BB0_4 Depth=1 ldr w9, [x19] LBB0_3: ; in Loop: Header=BB0_4 Depth=1 add x20, x20, #1 cmp x20, w9, sxtw b.ge LBB0_9 LBB0_4: ; =>This Loop Header: Depth=1 ; Child Loop BB0_7 Depth 2 ldr w10, [x8, x20, lsl #2] cmp w10, #1 b.lt LBB0_3 ; %bb.5: ; in Loop: Header=BB0_4 Depth=1 mov w22, #0 b LBB0_7 LBB0_6: ; in Loop: Header=BB0_7 Depth=2 add w22, w22, #1 ldr w9, [x8, x20, lsl #2] cmp w22, w9 b.ge LBB0_2 LBB0_7: ; Parent Loop BB0_4 Depth=1 ; => This Inner Loop Header: Depth=2 ldr x9, [x19, #16] ldr w9, [x9, x20, lsl #2] lsr w9, w9, w22 tbz w9, #0, LBB0_6 ; %bb.8: ; in Loop: Header=BB0_7 Depth=2 mov x0, x20 mov x1, x22 mov w2, #56 bl _PPC_UNIT mov x1, x0 mov x0, x21 mov w2, #-1073741824 bl _nvkm_wr32 ldr x8, [x19, #8] b LBB0_6 LBB0_9: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .cfi_endproc ; -- End function .subsections_via_symbols
AnghaBench/linux/drivers/gpu/drm/nouveau/nvkm/engine/gr/extr_gk104.c_gk104_gr_init_ppc_exceptions.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function l2cap_select_mode _l2cap_select_mode: ## @l2cap_select_mode .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 movl %edi, %eax andl $-2, %eax cmpl $128, %eax jne LBB0_2 ## %bb.1: movl %edi, %ebx callq _l2cap_mode_supported testl %eax, %eax jne LBB0_3 LBB0_2: movq _L2CAP_MODE_BASIC@GOTPCREL(%rip), %rax movl (%rax), %ebx LBB0_3: movl %ebx, %eax addq $8, %rsp popq %rbx popq %rbp retq .cfi_endproc ## -- End function .comm _L2CAP_MODE_BASIC,4,2 ## @L2CAP_MODE_BASIC .no_dead_strip _l2cap_select_mode .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function l2cap_select_mode _l2cap_select_mode: ; @l2cap_select_mode .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 and w8, w0, #0xfffffffe cmp w8, #128 b.ne LBB0_2 ; %bb.1: mov x19, x0 bl _l2cap_mode_supported cbnz w0, LBB0_3 LBB0_2: Lloh0: adrp x8, _L2CAP_MODE_BASIC@GOTPAGE Lloh1: ldr x8, [x8, _L2CAP_MODE_BASIC@GOTPAGEOFF] Lloh2: ldr w19, [x8] LBB0_3: mov x0, x19 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _L2CAP_MODE_BASIC,4,2 ; @L2CAP_MODE_BASIC .no_dead_strip _l2cap_select_mode .subsections_via_symbols
AnghaBench/fastsocket/kernel/net/bluetooth/extr_l2cap.c_l2cap_select_mode.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function pci_dev_is_added _pci_dev_is_added: ## @pci_dev_is_added .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rsi movq _PCI_DEV_ADDED@GOTPCREL(%rip), %rax movl (%rax), %edi popq %rbp jmp _test_bit ## TAILCALL .cfi_endproc ## -- End function .comm _PCI_DEV_ADDED,4,2 ## @PCI_DEV_ADDED .no_dead_strip _pci_dev_is_added .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function pci_dev_is_added _pci_dev_is_added: ; @pci_dev_is_added .cfi_startproc ; %bb.0: mov x1, x0 Lloh0: adrp x8, _PCI_DEV_ADDED@GOTPAGE Lloh1: ldr x8, [x8, _PCI_DEV_ADDED@GOTPAGEOFF] Lloh2: ldr w0, [x8] b _test_bit .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _PCI_DEV_ADDED,4,2 ; @PCI_DEV_ADDED .no_dead_strip _pci_dev_is_added .subsections_via_symbols
AnghaBench/linux/drivers/pci/hotplug/extr_..pci.h_pci_dev_is_added.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _obs_data_item_get_int ## -- Begin function obs_data_item_get_int .p2align 4, 0x90 _obs_data_item_get_int: ## @obs_data_item_get_int .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq _get_item_data@GOTPCREL(%rip), %rax movl (%rax), %esi popq %rbp jmp _data_item_get_int ## TAILCALL .cfi_endproc ## -- End function .comm _get_item_data,4,2 ## @get_item_data .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _obs_data_item_get_int ; -- Begin function obs_data_item_get_int .p2align 2 _obs_data_item_get_int: ; @obs_data_item_get_int .cfi_startproc ; %bb.0: Lloh0: adrp x8, _get_item_data@GOTPAGE Lloh1: ldr x8, [x8, _get_item_data@GOTPAGEOFF] Lloh2: ldr w1, [x8] b _data_item_get_int .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _get_item_data,4,2 ; @get_item_data .subsections_via_symbols
AnghaBench/obs-studio/libobs/extr_obs-data.c_obs_data_item_get_int.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function mrb_str_tr_s_bang _mrb_str_tr_s_bang: ## @mrb_str_tr_s_bang .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movl %esi, %r14d movq %rdi, %rbx leaq L_.str(%rip), %rsi leaq -24(%rbp), %rdx leaq -20(%rbp), %rcx callq _mrb_get_args movl -24(%rbp), %edx movl -20(%rbp), %ecx movq _TRUE@GOTPCREL(%rip), %rax movl (%rax), %r8d movq %rbx, %rdi movl %r14d, %esi callq _str_tr testq %rax, %rax jne LBB0_2 ## %bb.1: xorl %eax, %eax callq _mrb_nil_value movl %eax, %r14d LBB0_2: movl %r14d, %eax addq $16, %rsp popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "SS" .comm _TRUE,4,2 ## @TRUE .no_dead_strip _mrb_str_tr_s_bang .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function mrb_str_tr_s_bang _mrb_str_tr_s_bang: ; @mrb_str_tr_s_bang .cfi_startproc ; %bb.0: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x1 mov x20, x0 Lloh0: adrp x1, l_.str@PAGE Lloh1: add x1, x1, l_.str@PAGEOFF add x2, sp, #12 add x3, sp, #8 bl _mrb_get_args ldp w3, w2, [sp, #8] Lloh2: adrp x8, _TRUE@GOTPAGE Lloh3: ldr x8, [x8, _TRUE@GOTPAGEOFF] Lloh4: ldr w4, [x8] mov x0, x20 mov x1, x19 bl _str_tr cbnz x0, LBB0_2 ; %bb.1: bl _mrb_nil_value mov x19, x0 LBB0_2: mov x0, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload add sp, sp, #48 ret .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpAdd Lloh0, Lloh1 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "SS" .comm _TRUE,4,2 ; @TRUE .no_dead_strip _mrb_str_tr_s_bang .subsections_via_symbols
AnghaBench/h2o/deps/mruby/mrbgems/mruby-string-ext/src/extr_string.c_mrb_str_tr_s_bang.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _ui_rect ## -- Begin function ui_rect .p2align 4, 0x90 _ui_rect: ## @ui_rect .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movl %r9d, %edi movl %r8d, %r14d movl %ecx, %r15d movl %edx, %r12d movl %esi, %ebx callq _SET_FOREGROUND movl %ebx, %edi movl %r12d, %esi movl %r15d, %edx movl %r14d, %ecx popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp jmp _FILL_RECTANGLE ## TAILCALL .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _ui_rect ; -- Begin function ui_rect .p2align 2 _ui_rect: ; @ui_rect .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x0, x5 mov x19, x4 mov x20, x3 mov x21, x2 mov x22, x1 bl _SET_FOREGROUND mov x0, x22 mov x1, x21 mov x2, x20 mov x3, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b _FILL_RECTANGLE .cfi_endproc ; -- End function .subsections_via_symbols
AnghaBench/reactos/modules/rosapps/applications/net/tsclient/rdesktop/extr_xwin.c_ui_rect.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function serverworks_csb_filter _serverworks_csb_filter: ## @serverworks_csb_filter .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rsi, %r13 movq %rdi, %r14 movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -48(%rbp) movq _ATA_ID_PROD_LEN@GOTPCREL(%rip), %rax movl (%rax), %r12d incl %r12d movq %r12, %rax callq ____chkstk_darwin addq $15, %rax andq $-16, %rax subq %rax, %rsp movq %rsp, %r15 movq (%r14), %rax movq _ATA_DEV_ATA@GOTPCREL(%rip), %rcx cmpq (%rcx), %rax jne LBB0_1 ## %bb.3: movl 8(%r14), %edi movq _ATA_ID_PROD@GOTPCREL(%rip), %rax movl (%rax), %edx movq %r15, %rsi movl %r12d, %ecx callq _ata_id_c_string movq _csb_bad_ata100@GOTPCREL(%rip), %rax movq (%rax), %rbx movq (%rbx), %rdi testq %rdi, %rdi je LBB0_6 ## %bb.4: movq _ATA_SHIFT_UDMA@GOTPCREL(%rip), %rax movb (%rax), %cl movl $224, %r12d shll %cl, %r12d notl %r12d addq $8, %rbx .p2align 4, 0x90 LBB0_5: ## =>This Inner Loop Header: Depth=1 movq %r15, %rsi callq _strcmp negl %eax movl $0, %eax sbbl %eax, %eax orl %r12d, %eax cltq andq %rax, %r13 movq (%rbx), %rdi addq $8, %rbx testq %rdi, %rdi jne LBB0_5 LBB0_6: movq %r14, %rdi movq %r13, %rsi callq _ata_bmdma_mode_filter movq ___stack_chk_guard@GOTPCREL(%rip), %rcx movq (%rcx), %rcx cmpq -48(%rbp), %rcx jne LBB0_8 ## %bb.7: leaq -40(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB0_1: movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -48(%rbp), %rax jne LBB0_8 ## %bb.2: movq %r14, %rdi movq %r13, %rsi leaq -40(%rbp), %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp jmp _ata_bmdma_mode_filter ## TAILCALL LBB0_8: callq ___stack_chk_fail .cfi_endproc ## -- End function .comm _ATA_ID_PROD_LEN,4,2 ## @ATA_ID_PROD_LEN .comm _ATA_DEV_ATA,8,3 ## @ATA_DEV_ATA .comm _ATA_ID_PROD,4,2 ## @ATA_ID_PROD .comm _csb_bad_ata100,8,3 ## @csb_bad_ata100 .comm _ATA_SHIFT_UDMA,4,2 ## @ATA_SHIFT_UDMA .no_dead_strip _serverworks_csb_filter .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function serverworks_csb_filter _serverworks_csb_filter: ; @serverworks_csb_filter .cfi_startproc ; %bb.0: stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 sub sp, sp, #16 mov x19, x1 mov x20, x0 Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] stur x8, [x29, #-56] Lloh3: adrp x8, _ATA_ID_PROD_LEN@GOTPAGE Lloh4: ldr x8, [x8, _ATA_ID_PROD_LEN@GOTPAGEOFF] Lloh5: ldr w8, [x8] add w3, w8, #1 mov x9, x3 Lloh6: adrp x16, ___chkstk_darwin@GOTPAGE Lloh7: ldr x16, [x16, ___chkstk_darwin@GOTPAGEOFF] blr x16 mov x8, sp add x9, x3, #15 and x9, x9, #0x1fffffff0 sub x21, x8, x9 mov sp, x21 ldr x8, [x0] Lloh8: adrp x9, _ATA_DEV_ATA@GOTPAGE Lloh9: ldr x9, [x9, _ATA_DEV_ATA@GOTPAGEOFF] Lloh10: ldr x9, [x9] cmp x8, x9 b.ne LBB0_6 ; %bb.1: ldr w0, [x20, #8] Lloh11: adrp x8, _ATA_ID_PROD@GOTPAGE Lloh12: ldr x8, [x8, _ATA_ID_PROD@GOTPAGEOFF] Lloh13: ldr w2, [x8] mov x1, x21 ; kill: def $w3 killed $w3 killed $x3 bl _ata_id_c_string Lloh14: adrp x8, _csb_bad_ata100@GOTPAGE Lloh15: ldr x8, [x8, _csb_bad_ata100@GOTPAGEOFF] Lloh16: ldr x8, [x8] ldr x0, [x8] cbz x0, LBB0_4 ; %bb.2: Lloh17: adrp x9, _ATA_SHIFT_UDMA@GOTPAGE Lloh18: ldr x9, [x9, _ATA_SHIFT_UDMA@GOTPAGEOFF] Lloh19: ldr w9, [x9] mov w10, #224 lsl w9, w10, w9 mvn w22, w9 add x23, x8, #8 LBB0_3: ; =>This Inner Loop Header: Depth=1 mov x1, x21 bl _strcmp cmp w0, #0 csinv w8, w22, wzr, eq sxtw x8, w8 and x19, x19, x8 ldr x0, [x23], #8 cbnz x0, LBB0_3 LBB0_4: mov x0, x20 mov x1, x19 bl _ata_bmdma_mode_filter ldur x8, [x29, #-56] Lloh20: adrp x9, ___stack_chk_guard@GOTPAGE Lloh21: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh22: ldr x9, [x9] cmp x9, x8 b.ne LBB0_8 ; %bb.5: sub sp, x29, #48 ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload ldp x24, x23, [sp], #64 ; 16-byte Folded Reload ret LBB0_6: ldur x8, [x29, #-56] Lloh23: adrp x9, ___stack_chk_guard@GOTPAGE Lloh24: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh25: ldr x9, [x9] cmp x9, x8 b.ne LBB0_8 ; %bb.7: mov x0, x20 mov x1, x19 sub sp, x29, #48 ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload ldp x24, x23, [sp], #64 ; 16-byte Folded Reload b _ata_bmdma_mode_filter LBB0_8: bl ___stack_chk_fail .loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10 .loh AdrpLdrGot Lloh6, Lloh7 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh14, Lloh15, Lloh16 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh17, Lloh18, Lloh19 .loh AdrpLdrGotLdr Lloh20, Lloh21, Lloh22 .loh AdrpLdrGotLdr Lloh23, Lloh24, Lloh25 .cfi_endproc ; -- End function .comm _ATA_ID_PROD_LEN,4,2 ; @ATA_ID_PROD_LEN .comm _ATA_DEV_ATA,8,3 ; @ATA_DEV_ATA .comm _ATA_ID_PROD,4,2 ; @ATA_ID_PROD .comm _csb_bad_ata100,8,3 ; @csb_bad_ata100 .comm _ATA_SHIFT_UDMA,4,2 ; @ATA_SHIFT_UDMA .no_dead_strip _serverworks_csb_filter .subsections_via_symbols
AnghaBench/fastsocket/kernel/drivers/ata/extr_pata_serverworks.c_serverworks_csb_filter.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _foo ## -- Begin function foo .p2align 4, 0x90 _foo: ## @foo .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp ## kill: def $edi killed $edi def $rdi leal 1(,%rdi,4), %eax movl %edi, %ecx andl $1, %ecx negl %ecx andl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _bar ## -- Begin function bar .p2align 4, 0x90 _bar: ## @bar .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp .p2align 4, 0x90 LBB1_1: ## =>This Inner Loop Header: Depth=1 movl %edi, %eax shrl %edi cmpl $100, %eax jg LBB1_1 ## %bb.2: popq %rbp retq .cfi_endproc ## -- End function .globl _main ## -- Begin function main .p2align 4, 0x90 _main: ## @main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %edi, %edi callq *_Fps(%rip) movl $1, %edi callq *_Fps+8(%rip) movl $2, %edi callq *_Fps(%rip) movl $3, %edi callq *_Fps+8(%rip) movl $4, %edi callq *_Fps(%rip) xorl %eax, %eax popq %rbp retq .cfi_endproc ## -- End function .section __DATA,__data .globl _Fps ## @Fps .p2align 4 _Fps: .quad _foo .quad _bar .quad 0 .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _foo ; -- Begin function foo .p2align 2 _foo: ; @foo .cfi_startproc ; %bb.0: sbfx w8, w0, #0, #1 mov w9, #1 bfi w9, w0, #2, #30 and w0, w8, w9 ret .cfi_endproc ; -- End function .globl _bar ; -- Begin function bar .p2align 2 _bar: ; @bar .cfi_startproc ; %bb.0: LBB1_1: ; =>This Inner Loop Header: Depth=1 mov x8, x0 lsr w0, w0, #1 cmp w8, #100 b.gt LBB1_1 ; %bb.2: mov x0, x8 ret .cfi_endproc ; -- End function .globl _main ; -- Begin function main .p2align 2 _main: ; @main .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 Lloh0: adrp x19, _Fps@PAGE Lloh1: add x19, x19, _Fps@PAGEOFF ldr x8, [x19] mov w0, #0 blr x8 ldr x8, [x19, #8] mov w0, #1 blr x8 ldr x8, [x19] mov w0, #2 blr x8 ldr x8, [x19, #8] mov w0, #3 blr x8 ldr x8, [x19] mov w0, #4 blr x8 mov w0, #0 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload ret .loh AdrpAdd Lloh0, Lloh1 .cfi_endproc ; -- End function .section __DATA,__data .globl _Fps ; @Fps .p2align 3 _Fps: .quad _foo .quad _bar .quad 0 .subsections_via_symbols
the_stack_data/85495.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function check_previous_track_selection _check_previous_track_selection: ## @check_previous_track_selection .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 cmpq $0, (%rdi) je LBB0_13 ## %bb.1: movq %rdi, %r15 movq 8(%rdi), %r12 callq _track_layout_hash movq %rax, %r14 movq (%r15), %rsi movq %rax, %rdi callq _strcmp testq %rax, %rax je LBB0_12 ## %bb.2: movq _STREAM_TYPE_COUNT@GOTPCREL(%rip), %r8 movl (%r8), %edi testl %edi, %edi jle LBB0_11 ## %bb.3: movq _NUM_PTRACKS@GOTPCREL(%rip), %rcx movl (%rcx), %esi xorl %edx, %edx jmp LBB0_4 .p2align 4, 0x90 LBB0_9: ## in Loop: Header=BB0_4 Depth=1 movl (%r8), %edi LBB0_10: ## in Loop: Header=BB0_4 Depth=1 incq %rdx movslq %edi, %rax cmpq %rax, %rdx jge LBB0_11 LBB0_4: ## =>This Loop Header: Depth=1 ## Child Loop BB0_6 Depth 2 testl %esi, %esi jle LBB0_10 ## %bb.5: ## in Loop: Header=BB0_4 Depth=1 movq (%r12), %rdi xorl %eax, %eax jmp LBB0_6 .p2align 4, 0x90 LBB0_8: ## in Loop: Header=BB0_6 Depth=2 incq %rax movslq %esi, %rbx cmpq %rbx, %rax jge LBB0_9 LBB0_6: ## Parent Loop BB0_4 Depth=1 ## => This Inner Loop Header: Depth=2 movq (%rdi,%rax,8), %rbx cmpl $0, (%rbx,%rdx,4) js LBB0_8 ## %bb.7: ## in Loop: Header=BB0_6 Depth=2 xorl %esi, %esi testq %rax, %rax sete %sil orl $-2, %esi movl %esi, (%rbx,%rdx,4) movl (%rcx), %esi jmp LBB0_8 LBB0_13: popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq LBB0_11: movq (%r15), %rdi callq _talloc_free movq $0, (%r15) LBB0_12: movq %r14, %rdi popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp jmp _talloc_free ## TAILCALL .cfi_endproc ## -- End function .comm _STREAM_TYPE_COUNT,4,2 ## @STREAM_TYPE_COUNT .comm _NUM_PTRACKS,4,2 ## @NUM_PTRACKS .no_dead_strip _check_previous_track_selection .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function check_previous_track_selection _check_previous_track_selection: ; @check_previous_track_selection .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 ldr x8, [x0] cbz x8, LBB0_11 ; %bb.1: mov x19, x0 ldr x21, [x0, #8] bl _track_layout_hash mov x20, x0 ldr x1, [x19] bl _strcmp cbz x0, LBB0_13 ; %bb.2: Lloh0: adrp x8, _STREAM_TYPE_COUNT@GOTPAGE Lloh1: ldr x8, [x8, _STREAM_TYPE_COUNT@GOTPAGEOFF] ldr w13, [x8] cmp w13, #1 b.lt LBB0_12 ; %bb.3: mov x9, #0 Lloh2: adrp x10, _NUM_PTRACKS@GOTPAGE Lloh3: ldr x10, [x10, _NUM_PTRACKS@GOTPAGEOFF] ldr w12, [x10] mov w11, #-2 b LBB0_6 LBB0_4: ; in Loop: Header=BB0_6 Depth=1 ldr w13, [x8] LBB0_5: ; in Loop: Header=BB0_6 Depth=1 add x9, x9, #1 cmp x9, w13, sxtw b.ge LBB0_12 LBB0_6: ; =>This Loop Header: Depth=1 ; Child Loop BB0_9 Depth 2 cmp w12, #1 b.lt LBB0_5 ; %bb.7: ; in Loop: Header=BB0_6 Depth=1 mov x13, #0 ldr x14, [x21] b LBB0_9 LBB0_8: ; in Loop: Header=BB0_9 Depth=2 add x13, x13, #1 cmp x13, w12, sxtw b.ge LBB0_4 LBB0_9: ; Parent Loop BB0_6 Depth=1 ; => This Inner Loop Header: Depth=2 ldr x15, [x14, x13, lsl #3] ldr w16, [x15, x9, lsl #2] tbnz w16, #31, LBB0_8 ; %bb.10: ; in Loop: Header=BB0_9 Depth=2 cmp x13, #0 cinc w12, w11, eq str w12, [x15, x9, lsl #2] ldr w12, [x10] b LBB0_8 LBB0_11: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret LBB0_12: ldr x0, [x19] bl _talloc_free str xzr, [x19] LBB0_13: mov x0, x20 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload b _talloc_free .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGot Lloh2, Lloh3 .cfi_endproc ; -- End function .comm _STREAM_TYPE_COUNT,4,2 ; @STREAM_TYPE_COUNT .comm _NUM_PTRACKS,4,2 ; @NUM_PTRACKS .no_dead_strip _check_previous_track_selection .subsections_via_symbols
AnghaBench/mpv/player/extr_loadfile.c_check_previous_track_selection.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _test_int8_t__shift_0_0 ## -- Begin function test_int8_t__shift_0_0 .p2align 4, 0x90 _test_int8_t__shift_0_0: ## @test_int8_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_1 ## -- Begin function test_int8_t__shift_0_1 .p2align 4, 0x90 _test_int8_t__shift_0_1: ## @test_int8_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_2 ## -- Begin function test_int8_t__shift_0_2 .p2align 4, 0x90 _test_int8_t__shift_0_2: ## @test_int8_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_3 ## -- Begin function test_int8_t__shift_0_3 .p2align 4, 0x90 _test_int8_t__shift_0_3: ## @test_int8_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_4 ## -- Begin function test_int8_t__shift_0_4 .p2align 4, 0x90 _test_int8_t__shift_0_4: ## @test_int8_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_5 ## -- Begin function test_int8_t__shift_0_5 .p2align 4, 0x90 _test_int8_t__shift_0_5: ## @test_int8_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_6 ## -- Begin function test_int8_t__shift_0_6 .p2align 4, 0x90 _test_int8_t__shift_0_6: ## @test_int8_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_7 ## -- Begin function test_int8_t__shift_0_7 .p2align 4, 0x90 _test_int8_t__shift_0_7: ## @test_int8_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_8 ## -- Begin function test_int8_t__shift_0_8 .p2align 4, 0x90 _test_int8_t__shift_0_8: ## @test_int8_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_9 ## -- Begin function test_int8_t__shift_0_9 .p2align 4, 0x90 _test_int8_t__shift_0_9: ## @test_int8_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_10 ## -- Begin function test_int8_t__shift_0_10 .p2align 4, 0x90 _test_int8_t__shift_0_10: ## @test_int8_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_0_11 ## -- Begin function test_int8_t__shift_0_11 .p2align 4, 0x90 _test_int8_t__shift_0_11: ## @test_int8_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_0 ## -- Begin function test_int8_t__shift_1_0 .p2align 4, 0x90 _test_int8_t__shift_1_0: ## @test_int8_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_1 ## -- Begin function test_int8_t__shift_1_1 .p2align 4, 0x90 _test_int8_t__shift_1_1: ## @test_int8_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_2 ## -- Begin function test_int8_t__shift_1_2 .p2align 4, 0x90 _test_int8_t__shift_1_2: ## @test_int8_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_3 ## -- Begin function test_int8_t__shift_1_3 .p2align 4, 0x90 _test_int8_t__shift_1_3: ## @test_int8_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_4 ## -- Begin function test_int8_t__shift_1_4 .p2align 4, 0x90 _test_int8_t__shift_1_4: ## @test_int8_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_5 ## -- Begin function test_int8_t__shift_1_5 .p2align 4, 0x90 _test_int8_t__shift_1_5: ## @test_int8_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_6 ## -- Begin function test_int8_t__shift_1_6 .p2align 4, 0x90 _test_int8_t__shift_1_6: ## @test_int8_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_7 ## -- Begin function test_int8_t__shift_1_7 .p2align 4, 0x90 _test_int8_t__shift_1_7: ## @test_int8_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_8 ## -- Begin function test_int8_t__shift_1_8 .p2align 4, 0x90 _test_int8_t__shift_1_8: ## @test_int8_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $2, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_9 ## -- Begin function test_int8_t__shift_1_9 .p2align 4, 0x90 _test_int8_t__shift_1_9: ## @test_int8_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_10 ## -- Begin function test_int8_t__shift_1_10 .p2align 4, 0x90 _test_int8_t__shift_1_10: ## @test_int8_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $2, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_1_11 ## -- Begin function test_int8_t__shift_1_11 .p2align 4, 0x90 _test_int8_t__shift_1_11: ## @test_int8_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_0 ## -- Begin function test_int8_t__shift_2_0 .p2align 4, 0x90 _test_int8_t__shift_2_0: ## @test_int8_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_1 ## -- Begin function test_int8_t__shift_2_1 .p2align 4, 0x90 _test_int8_t__shift_2_1: ## @test_int8_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_2 ## -- Begin function test_int8_t__shift_2_2 .p2align 4, 0x90 _test_int8_t__shift_2_2: ## @test_int8_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_3 ## -- Begin function test_int8_t__shift_2_3 .p2align 4, 0x90 _test_int8_t__shift_2_3: ## @test_int8_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $2, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_4 ## -- Begin function test_int8_t__shift_2_4 .p2align 4, 0x90 _test_int8_t__shift_2_4: ## @test_int8_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_5 ## -- Begin function test_int8_t__shift_2_5 .p2align 4, 0x90 _test_int8_t__shift_2_5: ## @test_int8_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $2, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_6 ## -- Begin function test_int8_t__shift_2_6 .p2align 4, 0x90 _test_int8_t__shift_2_6: ## @test_int8_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_7 ## -- Begin function test_int8_t__shift_2_7 .p2align 4, 0x90 _test_int8_t__shift_2_7: ## @test_int8_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_8 ## -- Begin function test_int8_t__shift_2_8 .p2align 4, 0x90 _test_int8_t__shift_2_8: ## @test_int8_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $4, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_9 ## -- Begin function test_int8_t__shift_2_9 .p2align 4, 0x90 _test_int8_t__shift_2_9: ## @test_int8_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_10 ## -- Begin function test_int8_t__shift_2_10 .p2align 4, 0x90 _test_int8_t__shift_2_10: ## @test_int8_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $4, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_2_11 ## -- Begin function test_int8_t__shift_2_11 .p2align 4, 0x90 _test_int8_t__shift_2_11: ## @test_int8_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_0 ## -- Begin function test_int8_t__shift_3_0 .p2align 4, 0x90 _test_int8_t__shift_3_0: ## @test_int8_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_1 ## -- Begin function test_int8_t__shift_3_1 .p2align 4, 0x90 _test_int8_t__shift_3_1: ## @test_int8_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_2 ## -- Begin function test_int8_t__shift_3_2 .p2align 4, 0x90 _test_int8_t__shift_3_2: ## @test_int8_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_3 ## -- Begin function test_int8_t__shift_3_3 .p2align 4, 0x90 _test_int8_t__shift_3_3: ## @test_int8_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $3, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_4 ## -- Begin function test_int8_t__shift_3_4 .p2align 4, 0x90 _test_int8_t__shift_3_4: ## @test_int8_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_5 ## -- Begin function test_int8_t__shift_3_5 .p2align 4, 0x90 _test_int8_t__shift_3_5: ## @test_int8_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $3, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_6 ## -- Begin function test_int8_t__shift_3_6 .p2align 4, 0x90 _test_int8_t__shift_3_6: ## @test_int8_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_7 ## -- Begin function test_int8_t__shift_3_7 .p2align 4, 0x90 _test_int8_t__shift_3_7: ## @test_int8_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_8 ## -- Begin function test_int8_t__shift_3_8 .p2align 4, 0x90 _test_int8_t__shift_3_8: ## @test_int8_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $8, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_9 ## -- Begin function test_int8_t__shift_3_9 .p2align 4, 0x90 _test_int8_t__shift_3_9: ## @test_int8_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_10 ## -- Begin function test_int8_t__shift_3_10 .p2align 4, 0x90 _test_int8_t__shift_3_10: ## @test_int8_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $8, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_3_11 ## -- Begin function test_int8_t__shift_3_11 .p2align 4, 0x90 _test_int8_t__shift_3_11: ## @test_int8_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_0 ## -- Begin function test_int8_t__shift_4_0 .p2align 4, 0x90 _test_int8_t__shift_4_0: ## @test_int8_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_1 ## -- Begin function test_int8_t__shift_4_1 .p2align 4, 0x90 _test_int8_t__shift_4_1: ## @test_int8_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_2 ## -- Begin function test_int8_t__shift_4_2 .p2align 4, 0x90 _test_int8_t__shift_4_2: ## @test_int8_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_3 ## -- Begin function test_int8_t__shift_4_3 .p2align 4, 0x90 _test_int8_t__shift_4_3: ## @test_int8_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $4, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_4 ## -- Begin function test_int8_t__shift_4_4 .p2align 4, 0x90 _test_int8_t__shift_4_4: ## @test_int8_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_5 ## -- Begin function test_int8_t__shift_4_5 .p2align 4, 0x90 _test_int8_t__shift_4_5: ## @test_int8_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $4, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_6 ## -- Begin function test_int8_t__shift_4_6 .p2align 4, 0x90 _test_int8_t__shift_4_6: ## @test_int8_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_7 ## -- Begin function test_int8_t__shift_4_7 .p2align 4, 0x90 _test_int8_t__shift_4_7: ## @test_int8_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_8 ## -- Begin function test_int8_t__shift_4_8 .p2align 4, 0x90 _test_int8_t__shift_4_8: ## @test_int8_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $16, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_9 ## -- Begin function test_int8_t__shift_4_9 .p2align 4, 0x90 _test_int8_t__shift_4_9: ## @test_int8_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_10 ## -- Begin function test_int8_t__shift_4_10 .p2align 4, 0x90 _test_int8_t__shift_4_10: ## @test_int8_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $16, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_4_11 ## -- Begin function test_int8_t__shift_4_11 .p2align 4, 0x90 _test_int8_t__shift_4_11: ## @test_int8_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_0 ## -- Begin function test_int8_t__shift_5_0 .p2align 4, 0x90 _test_int8_t__shift_5_0: ## @test_int8_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_1 ## -- Begin function test_int8_t__shift_5_1 .p2align 4, 0x90 _test_int8_t__shift_5_1: ## @test_int8_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_2 ## -- Begin function test_int8_t__shift_5_2 .p2align 4, 0x90 _test_int8_t__shift_5_2: ## @test_int8_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_3 ## -- Begin function test_int8_t__shift_5_3 .p2align 4, 0x90 _test_int8_t__shift_5_3: ## @test_int8_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $5, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_4 ## -- Begin function test_int8_t__shift_5_4 .p2align 4, 0x90 _test_int8_t__shift_5_4: ## @test_int8_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_5 ## -- Begin function test_int8_t__shift_5_5 .p2align 4, 0x90 _test_int8_t__shift_5_5: ## @test_int8_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $5, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_6 ## -- Begin function test_int8_t__shift_5_6 .p2align 4, 0x90 _test_int8_t__shift_5_6: ## @test_int8_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_7 ## -- Begin function test_int8_t__shift_5_7 .p2align 4, 0x90 _test_int8_t__shift_5_7: ## @test_int8_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_8 ## -- Begin function test_int8_t__shift_5_8 .p2align 4, 0x90 _test_int8_t__shift_5_8: ## @test_int8_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $32, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_9 ## -- Begin function test_int8_t__shift_5_9 .p2align 4, 0x90 _test_int8_t__shift_5_9: ## @test_int8_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_10 ## -- Begin function test_int8_t__shift_5_10 .p2align 4, 0x90 _test_int8_t__shift_5_10: ## @test_int8_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $32, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_5_11 ## -- Begin function test_int8_t__shift_5_11 .p2align 4, 0x90 _test_int8_t__shift_5_11: ## @test_int8_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_0 ## -- Begin function test_int8_t__shift_6_0 .p2align 4, 0x90 _test_int8_t__shift_6_0: ## @test_int8_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_1 ## -- Begin function test_int8_t__shift_6_1 .p2align 4, 0x90 _test_int8_t__shift_6_1: ## @test_int8_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_2 ## -- Begin function test_int8_t__shift_6_2 .p2align 4, 0x90 _test_int8_t__shift_6_2: ## @test_int8_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_3 ## -- Begin function test_int8_t__shift_6_3 .p2align 4, 0x90 _test_int8_t__shift_6_3: ## @test_int8_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $6, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_4 ## -- Begin function test_int8_t__shift_6_4 .p2align 4, 0x90 _test_int8_t__shift_6_4: ## @test_int8_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_5 ## -- Begin function test_int8_t__shift_6_5 .p2align 4, 0x90 _test_int8_t__shift_6_5: ## @test_int8_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $6, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_6 ## -- Begin function test_int8_t__shift_6_6 .p2align 4, 0x90 _test_int8_t__shift_6_6: ## @test_int8_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_7 ## -- Begin function test_int8_t__shift_6_7 .p2align 4, 0x90 _test_int8_t__shift_6_7: ## @test_int8_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_8 ## -- Begin function test_int8_t__shift_6_8 .p2align 4, 0x90 _test_int8_t__shift_6_8: ## @test_int8_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $64, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_9 ## -- Begin function test_int8_t__shift_6_9 .p2align 4, 0x90 _test_int8_t__shift_6_9: ## @test_int8_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_10 ## -- Begin function test_int8_t__shift_6_10 .p2align 4, 0x90 _test_int8_t__shift_6_10: ## @test_int8_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $64, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_6_11 ## -- Begin function test_int8_t__shift_6_11 .p2align 4, 0x90 _test_int8_t__shift_6_11: ## @test_int8_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_0 ## -- Begin function test_int8_t__shift_7_0 .p2align 4, 0x90 _test_int8_t__shift_7_0: ## @test_int8_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb %dil, %dil movl $-10, %ecx movl $-40, %eax cmovsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_1 ## -- Begin function test_int8_t__shift_7_1 .p2align 4, 0x90 _test_int8_t__shift_7_1: ## @test_int8_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb %dil, %dil movl $-10, %ecx movl $-40, %eax cmovnsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_2 ## -- Begin function test_int8_t__shift_7_2 .p2align 4, 0x90 _test_int8_t__shift_7_2: ## @test_int8_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_3 ## -- Begin function test_int8_t__shift_7_3 .p2align 4, 0x90 _test_int8_t__shift_7_3: ## @test_int8_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_4 ## -- Begin function test_int8_t__shift_7_4 .p2align 4, 0x90 _test_int8_t__shift_7_4: ## @test_int8_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_5 ## -- Begin function test_int8_t__shift_7_5 .p2align 4, 0x90 _test_int8_t__shift_7_5: ## @test_int8_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_6 ## -- Begin function test_int8_t__shift_7_6 .p2align 4, 0x90 _test_int8_t__shift_7_6: ## @test_int8_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp cmpb $0, (%rdi) movl $-10, %ecx movl $-40, %eax cmovsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_7 ## -- Begin function test_int8_t__shift_7_7 .p2align 4, 0x90 _test_int8_t__shift_7_7: ## @test_int8_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp cmpb $0, (%rdi) movl $-10, %ecx movl $-40, %eax cmovnsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_8 ## -- Begin function test_int8_t__shift_7_8 .p2align 4, 0x90 _test_int8_t__shift_7_8: ## @test_int8_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movb (%rdi), %al notb %al shrb $7, %al movzbl %al, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_9 ## -- Begin function test_int8_t__shift_7_9 .p2align 4, 0x90 _test_int8_t__shift_7_9: ## @test_int8_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $7, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_10 ## -- Begin function test_int8_t__shift_7_10 .p2align 4, 0x90 _test_int8_t__shift_7_10: ## @test_int8_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movb (%rdi), %al notb %al shrb $7, %al movzbl %al, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int8_t__shift_7_11 ## -- Begin function test_int8_t__shift_7_11 .p2align 4, 0x90 _test_int8_t__shift_7_11: ## @test_int8_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $7, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_0 ## -- Begin function test_uint8_t__shift_0_0 .p2align 4, 0x90 _test_uint8_t__shift_0_0: ## @test_uint8_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_1 ## -- Begin function test_uint8_t__shift_0_1 .p2align 4, 0x90 _test_uint8_t__shift_0_1: ## @test_uint8_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_2 ## -- Begin function test_uint8_t__shift_0_2 .p2align 4, 0x90 _test_uint8_t__shift_0_2: ## @test_uint8_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_3 ## -- Begin function test_uint8_t__shift_0_3 .p2align 4, 0x90 _test_uint8_t__shift_0_3: ## @test_uint8_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_4 ## -- Begin function test_uint8_t__shift_0_4 .p2align 4, 0x90 _test_uint8_t__shift_0_4: ## @test_uint8_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_5 ## -- Begin function test_uint8_t__shift_0_5 .p2align 4, 0x90 _test_uint8_t__shift_0_5: ## @test_uint8_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_6 ## -- Begin function test_uint8_t__shift_0_6 .p2align 4, 0x90 _test_uint8_t__shift_0_6: ## @test_uint8_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_7 ## -- Begin function test_uint8_t__shift_0_7 .p2align 4, 0x90 _test_uint8_t__shift_0_7: ## @test_uint8_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_8 ## -- Begin function test_uint8_t__shift_0_8 .p2align 4, 0x90 _test_uint8_t__shift_0_8: ## @test_uint8_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_9 ## -- Begin function test_uint8_t__shift_0_9 .p2align 4, 0x90 _test_uint8_t__shift_0_9: ## @test_uint8_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_10 ## -- Begin function test_uint8_t__shift_0_10 .p2align 4, 0x90 _test_uint8_t__shift_0_10: ## @test_uint8_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_0_11 ## -- Begin function test_uint8_t__shift_0_11 .p2align 4, 0x90 _test_uint8_t__shift_0_11: ## @test_uint8_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_0 ## -- Begin function test_uint8_t__shift_1_0 .p2align 4, 0x90 _test_uint8_t__shift_1_0: ## @test_uint8_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_1 ## -- Begin function test_uint8_t__shift_1_1 .p2align 4, 0x90 _test_uint8_t__shift_1_1: ## @test_uint8_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_2 ## -- Begin function test_uint8_t__shift_1_2 .p2align 4, 0x90 _test_uint8_t__shift_1_2: ## @test_uint8_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_3 ## -- Begin function test_uint8_t__shift_1_3 .p2align 4, 0x90 _test_uint8_t__shift_1_3: ## @test_uint8_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_4 ## -- Begin function test_uint8_t__shift_1_4 .p2align 4, 0x90 _test_uint8_t__shift_1_4: ## @test_uint8_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_5 ## -- Begin function test_uint8_t__shift_1_5 .p2align 4, 0x90 _test_uint8_t__shift_1_5: ## @test_uint8_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_6 ## -- Begin function test_uint8_t__shift_1_6 .p2align 4, 0x90 _test_uint8_t__shift_1_6: ## @test_uint8_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_7 ## -- Begin function test_uint8_t__shift_1_7 .p2align 4, 0x90 _test_uint8_t__shift_1_7: ## @test_uint8_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_8 ## -- Begin function test_uint8_t__shift_1_8 .p2align 4, 0x90 _test_uint8_t__shift_1_8: ## @test_uint8_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $2, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_9 ## -- Begin function test_uint8_t__shift_1_9 .p2align 4, 0x90 _test_uint8_t__shift_1_9: ## @test_uint8_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_10 ## -- Begin function test_uint8_t__shift_1_10 .p2align 4, 0x90 _test_uint8_t__shift_1_10: ## @test_uint8_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $2, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_1_11 ## -- Begin function test_uint8_t__shift_1_11 .p2align 4, 0x90 _test_uint8_t__shift_1_11: ## @test_uint8_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_0 ## -- Begin function test_uint8_t__shift_2_0 .p2align 4, 0x90 _test_uint8_t__shift_2_0: ## @test_uint8_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_1 ## -- Begin function test_uint8_t__shift_2_1 .p2align 4, 0x90 _test_uint8_t__shift_2_1: ## @test_uint8_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_2 ## -- Begin function test_uint8_t__shift_2_2 .p2align 4, 0x90 _test_uint8_t__shift_2_2: ## @test_uint8_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_3 ## -- Begin function test_uint8_t__shift_2_3 .p2align 4, 0x90 _test_uint8_t__shift_2_3: ## @test_uint8_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $2, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_4 ## -- Begin function test_uint8_t__shift_2_4 .p2align 4, 0x90 _test_uint8_t__shift_2_4: ## @test_uint8_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_5 ## -- Begin function test_uint8_t__shift_2_5 .p2align 4, 0x90 _test_uint8_t__shift_2_5: ## @test_uint8_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $2, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_6 ## -- Begin function test_uint8_t__shift_2_6 .p2align 4, 0x90 _test_uint8_t__shift_2_6: ## @test_uint8_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_7 ## -- Begin function test_uint8_t__shift_2_7 .p2align 4, 0x90 _test_uint8_t__shift_2_7: ## @test_uint8_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_8 ## -- Begin function test_uint8_t__shift_2_8 .p2align 4, 0x90 _test_uint8_t__shift_2_8: ## @test_uint8_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $4, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_9 ## -- Begin function test_uint8_t__shift_2_9 .p2align 4, 0x90 _test_uint8_t__shift_2_9: ## @test_uint8_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_10 ## -- Begin function test_uint8_t__shift_2_10 .p2align 4, 0x90 _test_uint8_t__shift_2_10: ## @test_uint8_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $4, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_2_11 ## -- Begin function test_uint8_t__shift_2_11 .p2align 4, 0x90 _test_uint8_t__shift_2_11: ## @test_uint8_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_0 ## -- Begin function test_uint8_t__shift_3_0 .p2align 4, 0x90 _test_uint8_t__shift_3_0: ## @test_uint8_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_1 ## -- Begin function test_uint8_t__shift_3_1 .p2align 4, 0x90 _test_uint8_t__shift_3_1: ## @test_uint8_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_2 ## -- Begin function test_uint8_t__shift_3_2 .p2align 4, 0x90 _test_uint8_t__shift_3_2: ## @test_uint8_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_3 ## -- Begin function test_uint8_t__shift_3_3 .p2align 4, 0x90 _test_uint8_t__shift_3_3: ## @test_uint8_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $3, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_4 ## -- Begin function test_uint8_t__shift_3_4 .p2align 4, 0x90 _test_uint8_t__shift_3_4: ## @test_uint8_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_5 ## -- Begin function test_uint8_t__shift_3_5 .p2align 4, 0x90 _test_uint8_t__shift_3_5: ## @test_uint8_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $3, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_6 ## -- Begin function test_uint8_t__shift_3_6 .p2align 4, 0x90 _test_uint8_t__shift_3_6: ## @test_uint8_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_7 ## -- Begin function test_uint8_t__shift_3_7 .p2align 4, 0x90 _test_uint8_t__shift_3_7: ## @test_uint8_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_8 ## -- Begin function test_uint8_t__shift_3_8 .p2align 4, 0x90 _test_uint8_t__shift_3_8: ## @test_uint8_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $8, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_9 ## -- Begin function test_uint8_t__shift_3_9 .p2align 4, 0x90 _test_uint8_t__shift_3_9: ## @test_uint8_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_10 ## -- Begin function test_uint8_t__shift_3_10 .p2align 4, 0x90 _test_uint8_t__shift_3_10: ## @test_uint8_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $8, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_3_11 ## -- Begin function test_uint8_t__shift_3_11 .p2align 4, 0x90 _test_uint8_t__shift_3_11: ## @test_uint8_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_0 ## -- Begin function test_uint8_t__shift_4_0 .p2align 4, 0x90 _test_uint8_t__shift_4_0: ## @test_uint8_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_1 ## -- Begin function test_uint8_t__shift_4_1 .p2align 4, 0x90 _test_uint8_t__shift_4_1: ## @test_uint8_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_2 ## -- Begin function test_uint8_t__shift_4_2 .p2align 4, 0x90 _test_uint8_t__shift_4_2: ## @test_uint8_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_3 ## -- Begin function test_uint8_t__shift_4_3 .p2align 4, 0x90 _test_uint8_t__shift_4_3: ## @test_uint8_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $4, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_4 ## -- Begin function test_uint8_t__shift_4_4 .p2align 4, 0x90 _test_uint8_t__shift_4_4: ## @test_uint8_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_5 ## -- Begin function test_uint8_t__shift_4_5 .p2align 4, 0x90 _test_uint8_t__shift_4_5: ## @test_uint8_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $4, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_6 ## -- Begin function test_uint8_t__shift_4_6 .p2align 4, 0x90 _test_uint8_t__shift_4_6: ## @test_uint8_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_7 ## -- Begin function test_uint8_t__shift_4_7 .p2align 4, 0x90 _test_uint8_t__shift_4_7: ## @test_uint8_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_8 ## -- Begin function test_uint8_t__shift_4_8 .p2align 4, 0x90 _test_uint8_t__shift_4_8: ## @test_uint8_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $16, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_9 ## -- Begin function test_uint8_t__shift_4_9 .p2align 4, 0x90 _test_uint8_t__shift_4_9: ## @test_uint8_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_10 ## -- Begin function test_uint8_t__shift_4_10 .p2align 4, 0x90 _test_uint8_t__shift_4_10: ## @test_uint8_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $16, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_4_11 ## -- Begin function test_uint8_t__shift_4_11 .p2align 4, 0x90 _test_uint8_t__shift_4_11: ## @test_uint8_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_0 ## -- Begin function test_uint8_t__shift_5_0 .p2align 4, 0x90 _test_uint8_t__shift_5_0: ## @test_uint8_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_1 ## -- Begin function test_uint8_t__shift_5_1 .p2align 4, 0x90 _test_uint8_t__shift_5_1: ## @test_uint8_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_2 ## -- Begin function test_uint8_t__shift_5_2 .p2align 4, 0x90 _test_uint8_t__shift_5_2: ## @test_uint8_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_3 ## -- Begin function test_uint8_t__shift_5_3 .p2align 4, 0x90 _test_uint8_t__shift_5_3: ## @test_uint8_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $5, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_4 ## -- Begin function test_uint8_t__shift_5_4 .p2align 4, 0x90 _test_uint8_t__shift_5_4: ## @test_uint8_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_5 ## -- Begin function test_uint8_t__shift_5_5 .p2align 4, 0x90 _test_uint8_t__shift_5_5: ## @test_uint8_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $5, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_6 ## -- Begin function test_uint8_t__shift_5_6 .p2align 4, 0x90 _test_uint8_t__shift_5_6: ## @test_uint8_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_7 ## -- Begin function test_uint8_t__shift_5_7 .p2align 4, 0x90 _test_uint8_t__shift_5_7: ## @test_uint8_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_8 ## -- Begin function test_uint8_t__shift_5_8 .p2align 4, 0x90 _test_uint8_t__shift_5_8: ## @test_uint8_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $32, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_9 ## -- Begin function test_uint8_t__shift_5_9 .p2align 4, 0x90 _test_uint8_t__shift_5_9: ## @test_uint8_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_10 ## -- Begin function test_uint8_t__shift_5_10 .p2align 4, 0x90 _test_uint8_t__shift_5_10: ## @test_uint8_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $32, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_5_11 ## -- Begin function test_uint8_t__shift_5_11 .p2align 4, 0x90 _test_uint8_t__shift_5_11: ## @test_uint8_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_0 ## -- Begin function test_uint8_t__shift_6_0 .p2align 4, 0x90 _test_uint8_t__shift_6_0: ## @test_uint8_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_1 ## -- Begin function test_uint8_t__shift_6_1 .p2align 4, 0x90 _test_uint8_t__shift_6_1: ## @test_uint8_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_2 ## -- Begin function test_uint8_t__shift_6_2 .p2align 4, 0x90 _test_uint8_t__shift_6_2: ## @test_uint8_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_3 ## -- Begin function test_uint8_t__shift_6_3 .p2align 4, 0x90 _test_uint8_t__shift_6_3: ## @test_uint8_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $6, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_4 ## -- Begin function test_uint8_t__shift_6_4 .p2align 4, 0x90 _test_uint8_t__shift_6_4: ## @test_uint8_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_5 ## -- Begin function test_uint8_t__shift_6_5 .p2align 4, 0x90 _test_uint8_t__shift_6_5: ## @test_uint8_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $6, %dil andb $1, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_6 ## -- Begin function test_uint8_t__shift_6_6 .p2align 4, 0x90 _test_uint8_t__shift_6_6: ## @test_uint8_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_7 ## -- Begin function test_uint8_t__shift_6_7 .p2align 4, 0x90 _test_uint8_t__shift_6_7: ## @test_uint8_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_8 ## -- Begin function test_uint8_t__shift_6_8 .p2align 4, 0x90 _test_uint8_t__shift_6_8: ## @test_uint8_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $64, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_9 ## -- Begin function test_uint8_t__shift_6_9 .p2align 4, 0x90 _test_uint8_t__shift_6_9: ## @test_uint8_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_10 ## -- Begin function test_uint8_t__shift_6_10 .p2align 4, 0x90 _test_uint8_t__shift_6_10: ## @test_uint8_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %ecx xorl %eax, %eax testb $64, %cl sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_6_11 ## -- Begin function test_uint8_t__shift_6_11 .p2align 4, 0x90 _test_uint8_t__shift_6_11: ## @test_uint8_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_0 ## -- Begin function test_uint8_t__shift_7_0 .p2align 4, 0x90 _test_uint8_t__shift_7_0: ## @test_uint8_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb %dil, %dil movl $-10, %ecx movl $-40, %eax cmovsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_1 ## -- Begin function test_uint8_t__shift_7_1 .p2align 4, 0x90 _test_uint8_t__shift_7_1: ## @test_uint8_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb %dil, %dil movl $-10, %ecx movl $-40, %eax cmovnsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_2 ## -- Begin function test_uint8_t__shift_7_2 .p2align 4, 0x90 _test_uint8_t__shift_7_2: ## @test_uint8_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_3 ## -- Begin function test_uint8_t__shift_7_3 .p2align 4, 0x90 _test_uint8_t__shift_7_3: ## @test_uint8_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_4 ## -- Begin function test_uint8_t__shift_7_4 .p2align 4, 0x90 _test_uint8_t__shift_7_4: ## @test_uint8_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp notb %dil shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_5 ## -- Begin function test_uint8_t__shift_7_5 .p2align 4, 0x90 _test_uint8_t__shift_7_5: ## @test_uint8_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp shrb $7, %dil movzbl %dil, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_6 ## -- Begin function test_uint8_t__shift_7_6 .p2align 4, 0x90 _test_uint8_t__shift_7_6: ## @test_uint8_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp cmpb $0, (%rdi) movl $-10, %ecx movl $-40, %eax cmovsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_7 ## -- Begin function test_uint8_t__shift_7_7 .p2align 4, 0x90 _test_uint8_t__shift_7_7: ## @test_uint8_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp cmpb $0, (%rdi) movl $-10, %ecx movl $-40, %eax cmovnsl %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_8 ## -- Begin function test_uint8_t__shift_7_8 .p2align 4, 0x90 _test_uint8_t__shift_7_8: ## @test_uint8_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movb (%rdi), %al notb %al shrb $7, %al movzbl %al, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_9 ## -- Begin function test_uint8_t__shift_7_9 .p2align 4, 0x90 _test_uint8_t__shift_7_9: ## @test_uint8_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $7, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_10 ## -- Begin function test_uint8_t__shift_7_10 .p2align 4, 0x90 _test_uint8_t__shift_7_10: ## @test_uint8_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movb (%rdi), %al notb %al shrb $7, %al movzbl %al, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint8_t__shift_7_11 ## -- Begin function test_uint8_t__shift_7_11 .p2align 4, 0x90 _test_uint8_t__shift_7_11: ## @test_uint8_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzbl (%rdi), %eax shrl $7, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_0 ## -- Begin function test_int16_t__shift_0_0 .p2align 4, 0x90 _test_int16_t__shift_0_0: ## @test_int16_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_1 ## -- Begin function test_int16_t__shift_0_1 .p2align 4, 0x90 _test_int16_t__shift_0_1: ## @test_int16_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_2 ## -- Begin function test_int16_t__shift_0_2 .p2align 4, 0x90 _test_int16_t__shift_0_2: ## @test_int16_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_3 ## -- Begin function test_int16_t__shift_0_3 .p2align 4, 0x90 _test_int16_t__shift_0_3: ## @test_int16_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_4 ## -- Begin function test_int16_t__shift_0_4 .p2align 4, 0x90 _test_int16_t__shift_0_4: ## @test_int16_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_5 ## -- Begin function test_int16_t__shift_0_5 .p2align 4, 0x90 _test_int16_t__shift_0_5: ## @test_int16_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_6 ## -- Begin function test_int16_t__shift_0_6 .p2align 4, 0x90 _test_int16_t__shift_0_6: ## @test_int16_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_7 ## -- Begin function test_int16_t__shift_0_7 .p2align 4, 0x90 _test_int16_t__shift_0_7: ## @test_int16_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_8 ## -- Begin function test_int16_t__shift_0_8 .p2align 4, 0x90 _test_int16_t__shift_0_8: ## @test_int16_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_9 ## -- Begin function test_int16_t__shift_0_9 .p2align 4, 0x90 _test_int16_t__shift_0_9: ## @test_int16_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_10 ## -- Begin function test_int16_t__shift_0_10 .p2align 4, 0x90 _test_int16_t__shift_0_10: ## @test_int16_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_0_11 ## -- Begin function test_int16_t__shift_0_11 .p2align 4, 0x90 _test_int16_t__shift_0_11: ## @test_int16_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_0 ## -- Begin function test_int16_t__shift_1_0 .p2align 4, 0x90 _test_int16_t__shift_1_0: ## @test_int16_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_1 ## -- Begin function test_int16_t__shift_1_1 .p2align 4, 0x90 _test_int16_t__shift_1_1: ## @test_int16_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_2 ## -- Begin function test_int16_t__shift_1_2 .p2align 4, 0x90 _test_int16_t__shift_1_2: ## @test_int16_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_3 ## -- Begin function test_int16_t__shift_1_3 .p2align 4, 0x90 _test_int16_t__shift_1_3: ## @test_int16_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_4 ## -- Begin function test_int16_t__shift_1_4 .p2align 4, 0x90 _test_int16_t__shift_1_4: ## @test_int16_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_5 ## -- Begin function test_int16_t__shift_1_5 .p2align 4, 0x90 _test_int16_t__shift_1_5: ## @test_int16_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_6 ## -- Begin function test_int16_t__shift_1_6 .p2align 4, 0x90 _test_int16_t__shift_1_6: ## @test_int16_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_7 ## -- Begin function test_int16_t__shift_1_7 .p2align 4, 0x90 _test_int16_t__shift_1_7: ## @test_int16_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_8 ## -- Begin function test_int16_t__shift_1_8 .p2align 4, 0x90 _test_int16_t__shift_1_8: ## @test_int16_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_9 ## -- Begin function test_int16_t__shift_1_9 .p2align 4, 0x90 _test_int16_t__shift_1_9: ## @test_int16_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_10 ## -- Begin function test_int16_t__shift_1_10 .p2align 4, 0x90 _test_int16_t__shift_1_10: ## @test_int16_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_1_11 ## -- Begin function test_int16_t__shift_1_11 .p2align 4, 0x90 _test_int16_t__shift_1_11: ## @test_int16_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_0 ## -- Begin function test_int16_t__shift_2_0 .p2align 4, 0x90 _test_int16_t__shift_2_0: ## @test_int16_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_1 ## -- Begin function test_int16_t__shift_2_1 .p2align 4, 0x90 _test_int16_t__shift_2_1: ## @test_int16_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_2 ## -- Begin function test_int16_t__shift_2_2 .p2align 4, 0x90 _test_int16_t__shift_2_2: ## @test_int16_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_3 ## -- Begin function test_int16_t__shift_2_3 .p2align 4, 0x90 _test_int16_t__shift_2_3: ## @test_int16_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_4 ## -- Begin function test_int16_t__shift_2_4 .p2align 4, 0x90 _test_int16_t__shift_2_4: ## @test_int16_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_5 ## -- Begin function test_int16_t__shift_2_5 .p2align 4, 0x90 _test_int16_t__shift_2_5: ## @test_int16_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_6 ## -- Begin function test_int16_t__shift_2_6 .p2align 4, 0x90 _test_int16_t__shift_2_6: ## @test_int16_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_7 ## -- Begin function test_int16_t__shift_2_7 .p2align 4, 0x90 _test_int16_t__shift_2_7: ## @test_int16_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_8 ## -- Begin function test_int16_t__shift_2_8 .p2align 4, 0x90 _test_int16_t__shift_2_8: ## @test_int16_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_9 ## -- Begin function test_int16_t__shift_2_9 .p2align 4, 0x90 _test_int16_t__shift_2_9: ## @test_int16_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_10 ## -- Begin function test_int16_t__shift_2_10 .p2align 4, 0x90 _test_int16_t__shift_2_10: ## @test_int16_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_2_11 ## -- Begin function test_int16_t__shift_2_11 .p2align 4, 0x90 _test_int16_t__shift_2_11: ## @test_int16_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_0 ## -- Begin function test_int16_t__shift_3_0 .p2align 4, 0x90 _test_int16_t__shift_3_0: ## @test_int16_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_1 ## -- Begin function test_int16_t__shift_3_1 .p2align 4, 0x90 _test_int16_t__shift_3_1: ## @test_int16_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_2 ## -- Begin function test_int16_t__shift_3_2 .p2align 4, 0x90 _test_int16_t__shift_3_2: ## @test_int16_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_3 ## -- Begin function test_int16_t__shift_3_3 .p2align 4, 0x90 _test_int16_t__shift_3_3: ## @test_int16_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_4 ## -- Begin function test_int16_t__shift_3_4 .p2align 4, 0x90 _test_int16_t__shift_3_4: ## @test_int16_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_5 ## -- Begin function test_int16_t__shift_3_5 .p2align 4, 0x90 _test_int16_t__shift_3_5: ## @test_int16_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_6 ## -- Begin function test_int16_t__shift_3_6 .p2align 4, 0x90 _test_int16_t__shift_3_6: ## @test_int16_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_7 ## -- Begin function test_int16_t__shift_3_7 .p2align 4, 0x90 _test_int16_t__shift_3_7: ## @test_int16_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_8 ## -- Begin function test_int16_t__shift_3_8 .p2align 4, 0x90 _test_int16_t__shift_3_8: ## @test_int16_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_9 ## -- Begin function test_int16_t__shift_3_9 .p2align 4, 0x90 _test_int16_t__shift_3_9: ## @test_int16_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_10 ## -- Begin function test_int16_t__shift_3_10 .p2align 4, 0x90 _test_int16_t__shift_3_10: ## @test_int16_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_3_11 ## -- Begin function test_int16_t__shift_3_11 .p2align 4, 0x90 _test_int16_t__shift_3_11: ## @test_int16_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_0 ## -- Begin function test_int16_t__shift_4_0 .p2align 4, 0x90 _test_int16_t__shift_4_0: ## @test_int16_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_1 ## -- Begin function test_int16_t__shift_4_1 .p2align 4, 0x90 _test_int16_t__shift_4_1: ## @test_int16_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_2 ## -- Begin function test_int16_t__shift_4_2 .p2align 4, 0x90 _test_int16_t__shift_4_2: ## @test_int16_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_3 ## -- Begin function test_int16_t__shift_4_3 .p2align 4, 0x90 _test_int16_t__shift_4_3: ## @test_int16_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_4 ## -- Begin function test_int16_t__shift_4_4 .p2align 4, 0x90 _test_int16_t__shift_4_4: ## @test_int16_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_5 ## -- Begin function test_int16_t__shift_4_5 .p2align 4, 0x90 _test_int16_t__shift_4_5: ## @test_int16_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_6 ## -- Begin function test_int16_t__shift_4_6 .p2align 4, 0x90 _test_int16_t__shift_4_6: ## @test_int16_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_7 ## -- Begin function test_int16_t__shift_4_7 .p2align 4, 0x90 _test_int16_t__shift_4_7: ## @test_int16_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_8 ## -- Begin function test_int16_t__shift_4_8 .p2align 4, 0x90 _test_int16_t__shift_4_8: ## @test_int16_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_9 ## -- Begin function test_int16_t__shift_4_9 .p2align 4, 0x90 _test_int16_t__shift_4_9: ## @test_int16_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_10 ## -- Begin function test_int16_t__shift_4_10 .p2align 4, 0x90 _test_int16_t__shift_4_10: ## @test_int16_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_4_11 ## -- Begin function test_int16_t__shift_4_11 .p2align 4, 0x90 _test_int16_t__shift_4_11: ## @test_int16_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_0 ## -- Begin function test_int16_t__shift_5_0 .p2align 4, 0x90 _test_int16_t__shift_5_0: ## @test_int16_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_1 ## -- Begin function test_int16_t__shift_5_1 .p2align 4, 0x90 _test_int16_t__shift_5_1: ## @test_int16_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_2 ## -- Begin function test_int16_t__shift_5_2 .p2align 4, 0x90 _test_int16_t__shift_5_2: ## @test_int16_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_3 ## -- Begin function test_int16_t__shift_5_3 .p2align 4, 0x90 _test_int16_t__shift_5_3: ## @test_int16_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_4 ## -- Begin function test_int16_t__shift_5_4 .p2align 4, 0x90 _test_int16_t__shift_5_4: ## @test_int16_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_5 ## -- Begin function test_int16_t__shift_5_5 .p2align 4, 0x90 _test_int16_t__shift_5_5: ## @test_int16_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_6 ## -- Begin function test_int16_t__shift_5_6 .p2align 4, 0x90 _test_int16_t__shift_5_6: ## @test_int16_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_7 ## -- Begin function test_int16_t__shift_5_7 .p2align 4, 0x90 _test_int16_t__shift_5_7: ## @test_int16_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_8 ## -- Begin function test_int16_t__shift_5_8 .p2align 4, 0x90 _test_int16_t__shift_5_8: ## @test_int16_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_9 ## -- Begin function test_int16_t__shift_5_9 .p2align 4, 0x90 _test_int16_t__shift_5_9: ## @test_int16_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_10 ## -- Begin function test_int16_t__shift_5_10 .p2align 4, 0x90 _test_int16_t__shift_5_10: ## @test_int16_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_5_11 ## -- Begin function test_int16_t__shift_5_11 .p2align 4, 0x90 _test_int16_t__shift_5_11: ## @test_int16_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_0 ## -- Begin function test_int16_t__shift_6_0 .p2align 4, 0x90 _test_int16_t__shift_6_0: ## @test_int16_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_1 ## -- Begin function test_int16_t__shift_6_1 .p2align 4, 0x90 _test_int16_t__shift_6_1: ## @test_int16_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_2 ## -- Begin function test_int16_t__shift_6_2 .p2align 4, 0x90 _test_int16_t__shift_6_2: ## @test_int16_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_3 ## -- Begin function test_int16_t__shift_6_3 .p2align 4, 0x90 _test_int16_t__shift_6_3: ## @test_int16_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_4 ## -- Begin function test_int16_t__shift_6_4 .p2align 4, 0x90 _test_int16_t__shift_6_4: ## @test_int16_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_5 ## -- Begin function test_int16_t__shift_6_5 .p2align 4, 0x90 _test_int16_t__shift_6_5: ## @test_int16_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_6 ## -- Begin function test_int16_t__shift_6_6 .p2align 4, 0x90 _test_int16_t__shift_6_6: ## @test_int16_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_7 ## -- Begin function test_int16_t__shift_6_7 .p2align 4, 0x90 _test_int16_t__shift_6_7: ## @test_int16_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_8 ## -- Begin function test_int16_t__shift_6_8 .p2align 4, 0x90 _test_int16_t__shift_6_8: ## @test_int16_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_9 ## -- Begin function test_int16_t__shift_6_9 .p2align 4, 0x90 _test_int16_t__shift_6_9: ## @test_int16_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_10 ## -- Begin function test_int16_t__shift_6_10 .p2align 4, 0x90 _test_int16_t__shift_6_10: ## @test_int16_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_6_11 ## -- Begin function test_int16_t__shift_6_11 .p2align 4, 0x90 _test_int16_t__shift_6_11: ## @test_int16_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_0 ## -- Begin function test_int16_t__shift_7_0 .p2align 4, 0x90 _test_int16_t__shift_7_0: ## @test_int16_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_1 ## -- Begin function test_int16_t__shift_7_1 .p2align 4, 0x90 _test_int16_t__shift_7_1: ## @test_int16_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_2 ## -- Begin function test_int16_t__shift_7_2 .p2align 4, 0x90 _test_int16_t__shift_7_2: ## @test_int16_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_3 ## -- Begin function test_int16_t__shift_7_3 .p2align 4, 0x90 _test_int16_t__shift_7_3: ## @test_int16_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_4 ## -- Begin function test_int16_t__shift_7_4 .p2align 4, 0x90 _test_int16_t__shift_7_4: ## @test_int16_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_5 ## -- Begin function test_int16_t__shift_7_5 .p2align 4, 0x90 _test_int16_t__shift_7_5: ## @test_int16_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_6 ## -- Begin function test_int16_t__shift_7_6 .p2align 4, 0x90 _test_int16_t__shift_7_6: ## @test_int16_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_7 ## -- Begin function test_int16_t__shift_7_7 .p2align 4, 0x90 _test_int16_t__shift_7_7: ## @test_int16_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_8 ## -- Begin function test_int16_t__shift_7_8 .p2align 4, 0x90 _test_int16_t__shift_7_8: ## @test_int16_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_9 ## -- Begin function test_int16_t__shift_7_9 .p2align 4, 0x90 _test_int16_t__shift_7_9: ## @test_int16_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_10 ## -- Begin function test_int16_t__shift_7_10 .p2align 4, 0x90 _test_int16_t__shift_7_10: ## @test_int16_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int16_t__shift_7_11 ## -- Begin function test_int16_t__shift_7_11 .p2align 4, 0x90 _test_int16_t__shift_7_11: ## @test_int16_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_0 ## -- Begin function test_uint16_t__shift_0_0 .p2align 4, 0x90 _test_uint16_t__shift_0_0: ## @test_uint16_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_1 ## -- Begin function test_uint16_t__shift_0_1 .p2align 4, 0x90 _test_uint16_t__shift_0_1: ## @test_uint16_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_2 ## -- Begin function test_uint16_t__shift_0_2 .p2align 4, 0x90 _test_uint16_t__shift_0_2: ## @test_uint16_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_3 ## -- Begin function test_uint16_t__shift_0_3 .p2align 4, 0x90 _test_uint16_t__shift_0_3: ## @test_uint16_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_4 ## -- Begin function test_uint16_t__shift_0_4 .p2align 4, 0x90 _test_uint16_t__shift_0_4: ## @test_uint16_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_5 ## -- Begin function test_uint16_t__shift_0_5 .p2align 4, 0x90 _test_uint16_t__shift_0_5: ## @test_uint16_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_6 ## -- Begin function test_uint16_t__shift_0_6 .p2align 4, 0x90 _test_uint16_t__shift_0_6: ## @test_uint16_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_7 ## -- Begin function test_uint16_t__shift_0_7 .p2align 4, 0x90 _test_uint16_t__shift_0_7: ## @test_uint16_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_8 ## -- Begin function test_uint16_t__shift_0_8 .p2align 4, 0x90 _test_uint16_t__shift_0_8: ## @test_uint16_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_9 ## -- Begin function test_uint16_t__shift_0_9 .p2align 4, 0x90 _test_uint16_t__shift_0_9: ## @test_uint16_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_10 ## -- Begin function test_uint16_t__shift_0_10 .p2align 4, 0x90 _test_uint16_t__shift_0_10: ## @test_uint16_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_0_11 ## -- Begin function test_uint16_t__shift_0_11 .p2align 4, 0x90 _test_uint16_t__shift_0_11: ## @test_uint16_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_0 ## -- Begin function test_uint16_t__shift_1_0 .p2align 4, 0x90 _test_uint16_t__shift_1_0: ## @test_uint16_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_1 ## -- Begin function test_uint16_t__shift_1_1 .p2align 4, 0x90 _test_uint16_t__shift_1_1: ## @test_uint16_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_2 ## -- Begin function test_uint16_t__shift_1_2 .p2align 4, 0x90 _test_uint16_t__shift_1_2: ## @test_uint16_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_3 ## -- Begin function test_uint16_t__shift_1_3 .p2align 4, 0x90 _test_uint16_t__shift_1_3: ## @test_uint16_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_4 ## -- Begin function test_uint16_t__shift_1_4 .p2align 4, 0x90 _test_uint16_t__shift_1_4: ## @test_uint16_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_5 ## -- Begin function test_uint16_t__shift_1_5 .p2align 4, 0x90 _test_uint16_t__shift_1_5: ## @test_uint16_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_6 ## -- Begin function test_uint16_t__shift_1_6 .p2align 4, 0x90 _test_uint16_t__shift_1_6: ## @test_uint16_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_7 ## -- Begin function test_uint16_t__shift_1_7 .p2align 4, 0x90 _test_uint16_t__shift_1_7: ## @test_uint16_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_8 ## -- Begin function test_uint16_t__shift_1_8 .p2align 4, 0x90 _test_uint16_t__shift_1_8: ## @test_uint16_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_9 ## -- Begin function test_uint16_t__shift_1_9 .p2align 4, 0x90 _test_uint16_t__shift_1_9: ## @test_uint16_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_10 ## -- Begin function test_uint16_t__shift_1_10 .p2align 4, 0x90 _test_uint16_t__shift_1_10: ## @test_uint16_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_1_11 ## -- Begin function test_uint16_t__shift_1_11 .p2align 4, 0x90 _test_uint16_t__shift_1_11: ## @test_uint16_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_0 ## -- Begin function test_uint16_t__shift_2_0 .p2align 4, 0x90 _test_uint16_t__shift_2_0: ## @test_uint16_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_1 ## -- Begin function test_uint16_t__shift_2_1 .p2align 4, 0x90 _test_uint16_t__shift_2_1: ## @test_uint16_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_2 ## -- Begin function test_uint16_t__shift_2_2 .p2align 4, 0x90 _test_uint16_t__shift_2_2: ## @test_uint16_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_3 ## -- Begin function test_uint16_t__shift_2_3 .p2align 4, 0x90 _test_uint16_t__shift_2_3: ## @test_uint16_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_4 ## -- Begin function test_uint16_t__shift_2_4 .p2align 4, 0x90 _test_uint16_t__shift_2_4: ## @test_uint16_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_5 ## -- Begin function test_uint16_t__shift_2_5 .p2align 4, 0x90 _test_uint16_t__shift_2_5: ## @test_uint16_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_6 ## -- Begin function test_uint16_t__shift_2_6 .p2align 4, 0x90 _test_uint16_t__shift_2_6: ## @test_uint16_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_7 ## -- Begin function test_uint16_t__shift_2_7 .p2align 4, 0x90 _test_uint16_t__shift_2_7: ## @test_uint16_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_8 ## -- Begin function test_uint16_t__shift_2_8 .p2align 4, 0x90 _test_uint16_t__shift_2_8: ## @test_uint16_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_9 ## -- Begin function test_uint16_t__shift_2_9 .p2align 4, 0x90 _test_uint16_t__shift_2_9: ## @test_uint16_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_10 ## -- Begin function test_uint16_t__shift_2_10 .p2align 4, 0x90 _test_uint16_t__shift_2_10: ## @test_uint16_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_2_11 ## -- Begin function test_uint16_t__shift_2_11 .p2align 4, 0x90 _test_uint16_t__shift_2_11: ## @test_uint16_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_0 ## -- Begin function test_uint16_t__shift_3_0 .p2align 4, 0x90 _test_uint16_t__shift_3_0: ## @test_uint16_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_1 ## -- Begin function test_uint16_t__shift_3_1 .p2align 4, 0x90 _test_uint16_t__shift_3_1: ## @test_uint16_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_2 ## -- Begin function test_uint16_t__shift_3_2 .p2align 4, 0x90 _test_uint16_t__shift_3_2: ## @test_uint16_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_3 ## -- Begin function test_uint16_t__shift_3_3 .p2align 4, 0x90 _test_uint16_t__shift_3_3: ## @test_uint16_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_4 ## -- Begin function test_uint16_t__shift_3_4 .p2align 4, 0x90 _test_uint16_t__shift_3_4: ## @test_uint16_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_5 ## -- Begin function test_uint16_t__shift_3_5 .p2align 4, 0x90 _test_uint16_t__shift_3_5: ## @test_uint16_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_6 ## -- Begin function test_uint16_t__shift_3_6 .p2align 4, 0x90 _test_uint16_t__shift_3_6: ## @test_uint16_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_7 ## -- Begin function test_uint16_t__shift_3_7 .p2align 4, 0x90 _test_uint16_t__shift_3_7: ## @test_uint16_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_8 ## -- Begin function test_uint16_t__shift_3_8 .p2align 4, 0x90 _test_uint16_t__shift_3_8: ## @test_uint16_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_9 ## -- Begin function test_uint16_t__shift_3_9 .p2align 4, 0x90 _test_uint16_t__shift_3_9: ## @test_uint16_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_10 ## -- Begin function test_uint16_t__shift_3_10 .p2align 4, 0x90 _test_uint16_t__shift_3_10: ## @test_uint16_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_3_11 ## -- Begin function test_uint16_t__shift_3_11 .p2align 4, 0x90 _test_uint16_t__shift_3_11: ## @test_uint16_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_0 ## -- Begin function test_uint16_t__shift_4_0 .p2align 4, 0x90 _test_uint16_t__shift_4_0: ## @test_uint16_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_1 ## -- Begin function test_uint16_t__shift_4_1 .p2align 4, 0x90 _test_uint16_t__shift_4_1: ## @test_uint16_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_2 ## -- Begin function test_uint16_t__shift_4_2 .p2align 4, 0x90 _test_uint16_t__shift_4_2: ## @test_uint16_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_3 ## -- Begin function test_uint16_t__shift_4_3 .p2align 4, 0x90 _test_uint16_t__shift_4_3: ## @test_uint16_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_4 ## -- Begin function test_uint16_t__shift_4_4 .p2align 4, 0x90 _test_uint16_t__shift_4_4: ## @test_uint16_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_5 ## -- Begin function test_uint16_t__shift_4_5 .p2align 4, 0x90 _test_uint16_t__shift_4_5: ## @test_uint16_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_6 ## -- Begin function test_uint16_t__shift_4_6 .p2align 4, 0x90 _test_uint16_t__shift_4_6: ## @test_uint16_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_7 ## -- Begin function test_uint16_t__shift_4_7 .p2align 4, 0x90 _test_uint16_t__shift_4_7: ## @test_uint16_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_8 ## -- Begin function test_uint16_t__shift_4_8 .p2align 4, 0x90 _test_uint16_t__shift_4_8: ## @test_uint16_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_9 ## -- Begin function test_uint16_t__shift_4_9 .p2align 4, 0x90 _test_uint16_t__shift_4_9: ## @test_uint16_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_10 ## -- Begin function test_uint16_t__shift_4_10 .p2align 4, 0x90 _test_uint16_t__shift_4_10: ## @test_uint16_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_4_11 ## -- Begin function test_uint16_t__shift_4_11 .p2align 4, 0x90 _test_uint16_t__shift_4_11: ## @test_uint16_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_0 ## -- Begin function test_uint16_t__shift_5_0 .p2align 4, 0x90 _test_uint16_t__shift_5_0: ## @test_uint16_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_1 ## -- Begin function test_uint16_t__shift_5_1 .p2align 4, 0x90 _test_uint16_t__shift_5_1: ## @test_uint16_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_2 ## -- Begin function test_uint16_t__shift_5_2 .p2align 4, 0x90 _test_uint16_t__shift_5_2: ## @test_uint16_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_3 ## -- Begin function test_uint16_t__shift_5_3 .p2align 4, 0x90 _test_uint16_t__shift_5_3: ## @test_uint16_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_4 ## -- Begin function test_uint16_t__shift_5_4 .p2align 4, 0x90 _test_uint16_t__shift_5_4: ## @test_uint16_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_5 ## -- Begin function test_uint16_t__shift_5_5 .p2align 4, 0x90 _test_uint16_t__shift_5_5: ## @test_uint16_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_6 ## -- Begin function test_uint16_t__shift_5_6 .p2align 4, 0x90 _test_uint16_t__shift_5_6: ## @test_uint16_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_7 ## -- Begin function test_uint16_t__shift_5_7 .p2align 4, 0x90 _test_uint16_t__shift_5_7: ## @test_uint16_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_8 ## -- Begin function test_uint16_t__shift_5_8 .p2align 4, 0x90 _test_uint16_t__shift_5_8: ## @test_uint16_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_9 ## -- Begin function test_uint16_t__shift_5_9 .p2align 4, 0x90 _test_uint16_t__shift_5_9: ## @test_uint16_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_10 ## -- Begin function test_uint16_t__shift_5_10 .p2align 4, 0x90 _test_uint16_t__shift_5_10: ## @test_uint16_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_5_11 ## -- Begin function test_uint16_t__shift_5_11 .p2align 4, 0x90 _test_uint16_t__shift_5_11: ## @test_uint16_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_0 ## -- Begin function test_uint16_t__shift_6_0 .p2align 4, 0x90 _test_uint16_t__shift_6_0: ## @test_uint16_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_1 ## -- Begin function test_uint16_t__shift_6_1 .p2align 4, 0x90 _test_uint16_t__shift_6_1: ## @test_uint16_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_2 ## -- Begin function test_uint16_t__shift_6_2 .p2align 4, 0x90 _test_uint16_t__shift_6_2: ## @test_uint16_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_3 ## -- Begin function test_uint16_t__shift_6_3 .p2align 4, 0x90 _test_uint16_t__shift_6_3: ## @test_uint16_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_4 ## -- Begin function test_uint16_t__shift_6_4 .p2align 4, 0x90 _test_uint16_t__shift_6_4: ## @test_uint16_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_5 ## -- Begin function test_uint16_t__shift_6_5 .p2align 4, 0x90 _test_uint16_t__shift_6_5: ## @test_uint16_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_6 ## -- Begin function test_uint16_t__shift_6_6 .p2align 4, 0x90 _test_uint16_t__shift_6_6: ## @test_uint16_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_7 ## -- Begin function test_uint16_t__shift_6_7 .p2align 4, 0x90 _test_uint16_t__shift_6_7: ## @test_uint16_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_8 ## -- Begin function test_uint16_t__shift_6_8 .p2align 4, 0x90 _test_uint16_t__shift_6_8: ## @test_uint16_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_9 ## -- Begin function test_uint16_t__shift_6_9 .p2align 4, 0x90 _test_uint16_t__shift_6_9: ## @test_uint16_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_10 ## -- Begin function test_uint16_t__shift_6_10 .p2align 4, 0x90 _test_uint16_t__shift_6_10: ## @test_uint16_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_6_11 ## -- Begin function test_uint16_t__shift_6_11 .p2align 4, 0x90 _test_uint16_t__shift_6_11: ## @test_uint16_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_0 ## -- Begin function test_uint16_t__shift_7_0 .p2align 4, 0x90 _test_uint16_t__shift_7_0: ## @test_uint16_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_1 ## -- Begin function test_uint16_t__shift_7_1 .p2align 4, 0x90 _test_uint16_t__shift_7_1: ## @test_uint16_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_2 ## -- Begin function test_uint16_t__shift_7_2 .p2align 4, 0x90 _test_uint16_t__shift_7_2: ## @test_uint16_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_3 ## -- Begin function test_uint16_t__shift_7_3 .p2align 4, 0x90 _test_uint16_t__shift_7_3: ## @test_uint16_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_4 ## -- Begin function test_uint16_t__shift_7_4 .p2align 4, 0x90 _test_uint16_t__shift_7_4: ## @test_uint16_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_5 ## -- Begin function test_uint16_t__shift_7_5 .p2align 4, 0x90 _test_uint16_t__shift_7_5: ## @test_uint16_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_6 ## -- Begin function test_uint16_t__shift_7_6 .p2align 4, 0x90 _test_uint16_t__shift_7_6: ## @test_uint16_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_7 ## -- Begin function test_uint16_t__shift_7_7 .p2align 4, 0x90 _test_uint16_t__shift_7_7: ## @test_uint16_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_8 ## -- Begin function test_uint16_t__shift_7_8 .p2align 4, 0x90 _test_uint16_t__shift_7_8: ## @test_uint16_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_9 ## -- Begin function test_uint16_t__shift_7_9 .p2align 4, 0x90 _test_uint16_t__shift_7_9: ## @test_uint16_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_10 ## -- Begin function test_uint16_t__shift_7_10 .p2align 4, 0x90 _test_uint16_t__shift_7_10: ## @test_uint16_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint16_t__shift_7_11 ## -- Begin function test_uint16_t__shift_7_11 .p2align 4, 0x90 _test_uint16_t__shift_7_11: ## @test_uint16_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movzwl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_0 ## -- Begin function test_int32_t__shift_0_0 .p2align 4, 0x90 _test_int32_t__shift_0_0: ## @test_int32_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_1 ## -- Begin function test_int32_t__shift_0_1 .p2align 4, 0x90 _test_int32_t__shift_0_1: ## @test_int32_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_2 ## -- Begin function test_int32_t__shift_0_2 .p2align 4, 0x90 _test_int32_t__shift_0_2: ## @test_int32_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_3 ## -- Begin function test_int32_t__shift_0_3 .p2align 4, 0x90 _test_int32_t__shift_0_3: ## @test_int32_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_4 ## -- Begin function test_int32_t__shift_0_4 .p2align 4, 0x90 _test_int32_t__shift_0_4: ## @test_int32_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_5 ## -- Begin function test_int32_t__shift_0_5 .p2align 4, 0x90 _test_int32_t__shift_0_5: ## @test_int32_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_6 ## -- Begin function test_int32_t__shift_0_6 .p2align 4, 0x90 _test_int32_t__shift_0_6: ## @test_int32_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_7 ## -- Begin function test_int32_t__shift_0_7 .p2align 4, 0x90 _test_int32_t__shift_0_7: ## @test_int32_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_8 ## -- Begin function test_int32_t__shift_0_8 .p2align 4, 0x90 _test_int32_t__shift_0_8: ## @test_int32_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_9 ## -- Begin function test_int32_t__shift_0_9 .p2align 4, 0x90 _test_int32_t__shift_0_9: ## @test_int32_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_10 ## -- Begin function test_int32_t__shift_0_10 .p2align 4, 0x90 _test_int32_t__shift_0_10: ## @test_int32_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_0_11 ## -- Begin function test_int32_t__shift_0_11 .p2align 4, 0x90 _test_int32_t__shift_0_11: ## @test_int32_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_0 ## -- Begin function test_int32_t__shift_1_0 .p2align 4, 0x90 _test_int32_t__shift_1_0: ## @test_int32_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_1 ## -- Begin function test_int32_t__shift_1_1 .p2align 4, 0x90 _test_int32_t__shift_1_1: ## @test_int32_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_2 ## -- Begin function test_int32_t__shift_1_2 .p2align 4, 0x90 _test_int32_t__shift_1_2: ## @test_int32_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_3 ## -- Begin function test_int32_t__shift_1_3 .p2align 4, 0x90 _test_int32_t__shift_1_3: ## @test_int32_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_4 ## -- Begin function test_int32_t__shift_1_4 .p2align 4, 0x90 _test_int32_t__shift_1_4: ## @test_int32_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_5 ## -- Begin function test_int32_t__shift_1_5 .p2align 4, 0x90 _test_int32_t__shift_1_5: ## @test_int32_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_6 ## -- Begin function test_int32_t__shift_1_6 .p2align 4, 0x90 _test_int32_t__shift_1_6: ## @test_int32_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_7 ## -- Begin function test_int32_t__shift_1_7 .p2align 4, 0x90 _test_int32_t__shift_1_7: ## @test_int32_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_8 ## -- Begin function test_int32_t__shift_1_8 .p2align 4, 0x90 _test_int32_t__shift_1_8: ## @test_int32_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_9 ## -- Begin function test_int32_t__shift_1_9 .p2align 4, 0x90 _test_int32_t__shift_1_9: ## @test_int32_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_10 ## -- Begin function test_int32_t__shift_1_10 .p2align 4, 0x90 _test_int32_t__shift_1_10: ## @test_int32_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_1_11 ## -- Begin function test_int32_t__shift_1_11 .p2align 4, 0x90 _test_int32_t__shift_1_11: ## @test_int32_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_0 ## -- Begin function test_int32_t__shift_2_0 .p2align 4, 0x90 _test_int32_t__shift_2_0: ## @test_int32_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_1 ## -- Begin function test_int32_t__shift_2_1 .p2align 4, 0x90 _test_int32_t__shift_2_1: ## @test_int32_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_2 ## -- Begin function test_int32_t__shift_2_2 .p2align 4, 0x90 _test_int32_t__shift_2_2: ## @test_int32_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_3 ## -- Begin function test_int32_t__shift_2_3 .p2align 4, 0x90 _test_int32_t__shift_2_3: ## @test_int32_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_4 ## -- Begin function test_int32_t__shift_2_4 .p2align 4, 0x90 _test_int32_t__shift_2_4: ## @test_int32_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_5 ## -- Begin function test_int32_t__shift_2_5 .p2align 4, 0x90 _test_int32_t__shift_2_5: ## @test_int32_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_6 ## -- Begin function test_int32_t__shift_2_6 .p2align 4, 0x90 _test_int32_t__shift_2_6: ## @test_int32_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_7 ## -- Begin function test_int32_t__shift_2_7 .p2align 4, 0x90 _test_int32_t__shift_2_7: ## @test_int32_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_8 ## -- Begin function test_int32_t__shift_2_8 .p2align 4, 0x90 _test_int32_t__shift_2_8: ## @test_int32_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_9 ## -- Begin function test_int32_t__shift_2_9 .p2align 4, 0x90 _test_int32_t__shift_2_9: ## @test_int32_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_10 ## -- Begin function test_int32_t__shift_2_10 .p2align 4, 0x90 _test_int32_t__shift_2_10: ## @test_int32_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_2_11 ## -- Begin function test_int32_t__shift_2_11 .p2align 4, 0x90 _test_int32_t__shift_2_11: ## @test_int32_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_0 ## -- Begin function test_int32_t__shift_3_0 .p2align 4, 0x90 _test_int32_t__shift_3_0: ## @test_int32_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_1 ## -- Begin function test_int32_t__shift_3_1 .p2align 4, 0x90 _test_int32_t__shift_3_1: ## @test_int32_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_2 ## -- Begin function test_int32_t__shift_3_2 .p2align 4, 0x90 _test_int32_t__shift_3_2: ## @test_int32_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_3 ## -- Begin function test_int32_t__shift_3_3 .p2align 4, 0x90 _test_int32_t__shift_3_3: ## @test_int32_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_4 ## -- Begin function test_int32_t__shift_3_4 .p2align 4, 0x90 _test_int32_t__shift_3_4: ## @test_int32_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_5 ## -- Begin function test_int32_t__shift_3_5 .p2align 4, 0x90 _test_int32_t__shift_3_5: ## @test_int32_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_6 ## -- Begin function test_int32_t__shift_3_6 .p2align 4, 0x90 _test_int32_t__shift_3_6: ## @test_int32_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_7 ## -- Begin function test_int32_t__shift_3_7 .p2align 4, 0x90 _test_int32_t__shift_3_7: ## @test_int32_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_8 ## -- Begin function test_int32_t__shift_3_8 .p2align 4, 0x90 _test_int32_t__shift_3_8: ## @test_int32_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_9 ## -- Begin function test_int32_t__shift_3_9 .p2align 4, 0x90 _test_int32_t__shift_3_9: ## @test_int32_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_10 ## -- Begin function test_int32_t__shift_3_10 .p2align 4, 0x90 _test_int32_t__shift_3_10: ## @test_int32_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_3_11 ## -- Begin function test_int32_t__shift_3_11 .p2align 4, 0x90 _test_int32_t__shift_3_11: ## @test_int32_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_0 ## -- Begin function test_int32_t__shift_4_0 .p2align 4, 0x90 _test_int32_t__shift_4_0: ## @test_int32_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_1 ## -- Begin function test_int32_t__shift_4_1 .p2align 4, 0x90 _test_int32_t__shift_4_1: ## @test_int32_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_2 ## -- Begin function test_int32_t__shift_4_2 .p2align 4, 0x90 _test_int32_t__shift_4_2: ## @test_int32_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_3 ## -- Begin function test_int32_t__shift_4_3 .p2align 4, 0x90 _test_int32_t__shift_4_3: ## @test_int32_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_4 ## -- Begin function test_int32_t__shift_4_4 .p2align 4, 0x90 _test_int32_t__shift_4_4: ## @test_int32_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_5 ## -- Begin function test_int32_t__shift_4_5 .p2align 4, 0x90 _test_int32_t__shift_4_5: ## @test_int32_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_6 ## -- Begin function test_int32_t__shift_4_6 .p2align 4, 0x90 _test_int32_t__shift_4_6: ## @test_int32_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_7 ## -- Begin function test_int32_t__shift_4_7 .p2align 4, 0x90 _test_int32_t__shift_4_7: ## @test_int32_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_8 ## -- Begin function test_int32_t__shift_4_8 .p2align 4, 0x90 _test_int32_t__shift_4_8: ## @test_int32_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_9 ## -- Begin function test_int32_t__shift_4_9 .p2align 4, 0x90 _test_int32_t__shift_4_9: ## @test_int32_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_10 ## -- Begin function test_int32_t__shift_4_10 .p2align 4, 0x90 _test_int32_t__shift_4_10: ## @test_int32_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_4_11 ## -- Begin function test_int32_t__shift_4_11 .p2align 4, 0x90 _test_int32_t__shift_4_11: ## @test_int32_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_0 ## -- Begin function test_int32_t__shift_5_0 .p2align 4, 0x90 _test_int32_t__shift_5_0: ## @test_int32_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_1 ## -- Begin function test_int32_t__shift_5_1 .p2align 4, 0x90 _test_int32_t__shift_5_1: ## @test_int32_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_2 ## -- Begin function test_int32_t__shift_5_2 .p2align 4, 0x90 _test_int32_t__shift_5_2: ## @test_int32_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_3 ## -- Begin function test_int32_t__shift_5_3 .p2align 4, 0x90 _test_int32_t__shift_5_3: ## @test_int32_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_4 ## -- Begin function test_int32_t__shift_5_4 .p2align 4, 0x90 _test_int32_t__shift_5_4: ## @test_int32_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_5 ## -- Begin function test_int32_t__shift_5_5 .p2align 4, 0x90 _test_int32_t__shift_5_5: ## @test_int32_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_6 ## -- Begin function test_int32_t__shift_5_6 .p2align 4, 0x90 _test_int32_t__shift_5_6: ## @test_int32_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_7 ## -- Begin function test_int32_t__shift_5_7 .p2align 4, 0x90 _test_int32_t__shift_5_7: ## @test_int32_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_8 ## -- Begin function test_int32_t__shift_5_8 .p2align 4, 0x90 _test_int32_t__shift_5_8: ## @test_int32_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_9 ## -- Begin function test_int32_t__shift_5_9 .p2align 4, 0x90 _test_int32_t__shift_5_9: ## @test_int32_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_10 ## -- Begin function test_int32_t__shift_5_10 .p2align 4, 0x90 _test_int32_t__shift_5_10: ## @test_int32_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_5_11 ## -- Begin function test_int32_t__shift_5_11 .p2align 4, 0x90 _test_int32_t__shift_5_11: ## @test_int32_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_0 ## -- Begin function test_int32_t__shift_6_0 .p2align 4, 0x90 _test_int32_t__shift_6_0: ## @test_int32_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_1 ## -- Begin function test_int32_t__shift_6_1 .p2align 4, 0x90 _test_int32_t__shift_6_1: ## @test_int32_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_2 ## -- Begin function test_int32_t__shift_6_2 .p2align 4, 0x90 _test_int32_t__shift_6_2: ## @test_int32_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_3 ## -- Begin function test_int32_t__shift_6_3 .p2align 4, 0x90 _test_int32_t__shift_6_3: ## @test_int32_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_4 ## -- Begin function test_int32_t__shift_6_4 .p2align 4, 0x90 _test_int32_t__shift_6_4: ## @test_int32_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_5 ## -- Begin function test_int32_t__shift_6_5 .p2align 4, 0x90 _test_int32_t__shift_6_5: ## @test_int32_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_6 ## -- Begin function test_int32_t__shift_6_6 .p2align 4, 0x90 _test_int32_t__shift_6_6: ## @test_int32_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_7 ## -- Begin function test_int32_t__shift_6_7 .p2align 4, 0x90 _test_int32_t__shift_6_7: ## @test_int32_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_8 ## -- Begin function test_int32_t__shift_6_8 .p2align 4, 0x90 _test_int32_t__shift_6_8: ## @test_int32_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_9 ## -- Begin function test_int32_t__shift_6_9 .p2align 4, 0x90 _test_int32_t__shift_6_9: ## @test_int32_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_10 ## -- Begin function test_int32_t__shift_6_10 .p2align 4, 0x90 _test_int32_t__shift_6_10: ## @test_int32_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_6_11 ## -- Begin function test_int32_t__shift_6_11 .p2align 4, 0x90 _test_int32_t__shift_6_11: ## @test_int32_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_0 ## -- Begin function test_int32_t__shift_7_0 .p2align 4, 0x90 _test_int32_t__shift_7_0: ## @test_int32_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_1 ## -- Begin function test_int32_t__shift_7_1 .p2align 4, 0x90 _test_int32_t__shift_7_1: ## @test_int32_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_2 ## -- Begin function test_int32_t__shift_7_2 .p2align 4, 0x90 _test_int32_t__shift_7_2: ## @test_int32_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_3 ## -- Begin function test_int32_t__shift_7_3 .p2align 4, 0x90 _test_int32_t__shift_7_3: ## @test_int32_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_4 ## -- Begin function test_int32_t__shift_7_4 .p2align 4, 0x90 _test_int32_t__shift_7_4: ## @test_int32_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_5 ## -- Begin function test_int32_t__shift_7_5 .p2align 4, 0x90 _test_int32_t__shift_7_5: ## @test_int32_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_6 ## -- Begin function test_int32_t__shift_7_6 .p2align 4, 0x90 _test_int32_t__shift_7_6: ## @test_int32_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_7 ## -- Begin function test_int32_t__shift_7_7 .p2align 4, 0x90 _test_int32_t__shift_7_7: ## @test_int32_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_8 ## -- Begin function test_int32_t__shift_7_8 .p2align 4, 0x90 _test_int32_t__shift_7_8: ## @test_int32_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_9 ## -- Begin function test_int32_t__shift_7_9 .p2align 4, 0x90 _test_int32_t__shift_7_9: ## @test_int32_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_10 ## -- Begin function test_int32_t__shift_7_10 .p2align 4, 0x90 _test_int32_t__shift_7_10: ## @test_int32_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int32_t__shift_7_11 ## -- Begin function test_int32_t__shift_7_11 .p2align 4, 0x90 _test_int32_t__shift_7_11: ## @test_int32_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_0 ## -- Begin function test_uint32_t__shift_0_0 .p2align 4, 0x90 _test_uint32_t__shift_0_0: ## @test_uint32_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_1 ## -- Begin function test_uint32_t__shift_0_1 .p2align 4, 0x90 _test_uint32_t__shift_0_1: ## @test_uint32_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_2 ## -- Begin function test_uint32_t__shift_0_2 .p2align 4, 0x90 _test_uint32_t__shift_0_2: ## @test_uint32_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_3 ## -- Begin function test_uint32_t__shift_0_3 .p2align 4, 0x90 _test_uint32_t__shift_0_3: ## @test_uint32_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_4 ## -- Begin function test_uint32_t__shift_0_4 .p2align 4, 0x90 _test_uint32_t__shift_0_4: ## @test_uint32_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_5 ## -- Begin function test_uint32_t__shift_0_5 .p2align 4, 0x90 _test_uint32_t__shift_0_5: ## @test_uint32_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_6 ## -- Begin function test_uint32_t__shift_0_6 .p2align 4, 0x90 _test_uint32_t__shift_0_6: ## @test_uint32_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_7 ## -- Begin function test_uint32_t__shift_0_7 .p2align 4, 0x90 _test_uint32_t__shift_0_7: ## @test_uint32_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_8 ## -- Begin function test_uint32_t__shift_0_8 .p2align 4, 0x90 _test_uint32_t__shift_0_8: ## @test_uint32_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_9 ## -- Begin function test_uint32_t__shift_0_9 .p2align 4, 0x90 _test_uint32_t__shift_0_9: ## @test_uint32_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_10 ## -- Begin function test_uint32_t__shift_0_10 .p2align 4, 0x90 _test_uint32_t__shift_0_10: ## @test_uint32_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_0_11 ## -- Begin function test_uint32_t__shift_0_11 .p2align 4, 0x90 _test_uint32_t__shift_0_11: ## @test_uint32_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_0 ## -- Begin function test_uint32_t__shift_1_0 .p2align 4, 0x90 _test_uint32_t__shift_1_0: ## @test_uint32_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_1 ## -- Begin function test_uint32_t__shift_1_1 .p2align 4, 0x90 _test_uint32_t__shift_1_1: ## @test_uint32_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_2 ## -- Begin function test_uint32_t__shift_1_2 .p2align 4, 0x90 _test_uint32_t__shift_1_2: ## @test_uint32_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_3 ## -- Begin function test_uint32_t__shift_1_3 .p2align 4, 0x90 _test_uint32_t__shift_1_3: ## @test_uint32_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_4 ## -- Begin function test_uint32_t__shift_1_4 .p2align 4, 0x90 _test_uint32_t__shift_1_4: ## @test_uint32_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_5 ## -- Begin function test_uint32_t__shift_1_5 .p2align 4, 0x90 _test_uint32_t__shift_1_5: ## @test_uint32_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_6 ## -- Begin function test_uint32_t__shift_1_6 .p2align 4, 0x90 _test_uint32_t__shift_1_6: ## @test_uint32_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_7 ## -- Begin function test_uint32_t__shift_1_7 .p2align 4, 0x90 _test_uint32_t__shift_1_7: ## @test_uint32_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_8 ## -- Begin function test_uint32_t__shift_1_8 .p2align 4, 0x90 _test_uint32_t__shift_1_8: ## @test_uint32_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_9 ## -- Begin function test_uint32_t__shift_1_9 .p2align 4, 0x90 _test_uint32_t__shift_1_9: ## @test_uint32_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_10 ## -- Begin function test_uint32_t__shift_1_10 .p2align 4, 0x90 _test_uint32_t__shift_1_10: ## @test_uint32_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_1_11 ## -- Begin function test_uint32_t__shift_1_11 .p2align 4, 0x90 _test_uint32_t__shift_1_11: ## @test_uint32_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_0 ## -- Begin function test_uint32_t__shift_2_0 .p2align 4, 0x90 _test_uint32_t__shift_2_0: ## @test_uint32_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_1 ## -- Begin function test_uint32_t__shift_2_1 .p2align 4, 0x90 _test_uint32_t__shift_2_1: ## @test_uint32_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_2 ## -- Begin function test_uint32_t__shift_2_2 .p2align 4, 0x90 _test_uint32_t__shift_2_2: ## @test_uint32_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_3 ## -- Begin function test_uint32_t__shift_2_3 .p2align 4, 0x90 _test_uint32_t__shift_2_3: ## @test_uint32_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_4 ## -- Begin function test_uint32_t__shift_2_4 .p2align 4, 0x90 _test_uint32_t__shift_2_4: ## @test_uint32_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_5 ## -- Begin function test_uint32_t__shift_2_5 .p2align 4, 0x90 _test_uint32_t__shift_2_5: ## @test_uint32_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_6 ## -- Begin function test_uint32_t__shift_2_6 .p2align 4, 0x90 _test_uint32_t__shift_2_6: ## @test_uint32_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_7 ## -- Begin function test_uint32_t__shift_2_7 .p2align 4, 0x90 _test_uint32_t__shift_2_7: ## @test_uint32_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_8 ## -- Begin function test_uint32_t__shift_2_8 .p2align 4, 0x90 _test_uint32_t__shift_2_8: ## @test_uint32_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_9 ## -- Begin function test_uint32_t__shift_2_9 .p2align 4, 0x90 _test_uint32_t__shift_2_9: ## @test_uint32_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_10 ## -- Begin function test_uint32_t__shift_2_10 .p2align 4, 0x90 _test_uint32_t__shift_2_10: ## @test_uint32_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_2_11 ## -- Begin function test_uint32_t__shift_2_11 .p2align 4, 0x90 _test_uint32_t__shift_2_11: ## @test_uint32_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_0 ## -- Begin function test_uint32_t__shift_3_0 .p2align 4, 0x90 _test_uint32_t__shift_3_0: ## @test_uint32_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_1 ## -- Begin function test_uint32_t__shift_3_1 .p2align 4, 0x90 _test_uint32_t__shift_3_1: ## @test_uint32_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_2 ## -- Begin function test_uint32_t__shift_3_2 .p2align 4, 0x90 _test_uint32_t__shift_3_2: ## @test_uint32_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_3 ## -- Begin function test_uint32_t__shift_3_3 .p2align 4, 0x90 _test_uint32_t__shift_3_3: ## @test_uint32_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_4 ## -- Begin function test_uint32_t__shift_3_4 .p2align 4, 0x90 _test_uint32_t__shift_3_4: ## @test_uint32_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_5 ## -- Begin function test_uint32_t__shift_3_5 .p2align 4, 0x90 _test_uint32_t__shift_3_5: ## @test_uint32_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_6 ## -- Begin function test_uint32_t__shift_3_6 .p2align 4, 0x90 _test_uint32_t__shift_3_6: ## @test_uint32_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_7 ## -- Begin function test_uint32_t__shift_3_7 .p2align 4, 0x90 _test_uint32_t__shift_3_7: ## @test_uint32_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_8 ## -- Begin function test_uint32_t__shift_3_8 .p2align 4, 0x90 _test_uint32_t__shift_3_8: ## @test_uint32_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_9 ## -- Begin function test_uint32_t__shift_3_9 .p2align 4, 0x90 _test_uint32_t__shift_3_9: ## @test_uint32_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_10 ## -- Begin function test_uint32_t__shift_3_10 .p2align 4, 0x90 _test_uint32_t__shift_3_10: ## @test_uint32_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_3_11 ## -- Begin function test_uint32_t__shift_3_11 .p2align 4, 0x90 _test_uint32_t__shift_3_11: ## @test_uint32_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_0 ## -- Begin function test_uint32_t__shift_4_0 .p2align 4, 0x90 _test_uint32_t__shift_4_0: ## @test_uint32_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_1 ## -- Begin function test_uint32_t__shift_4_1 .p2align 4, 0x90 _test_uint32_t__shift_4_1: ## @test_uint32_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_2 ## -- Begin function test_uint32_t__shift_4_2 .p2align 4, 0x90 _test_uint32_t__shift_4_2: ## @test_uint32_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_3 ## -- Begin function test_uint32_t__shift_4_3 .p2align 4, 0x90 _test_uint32_t__shift_4_3: ## @test_uint32_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_4 ## -- Begin function test_uint32_t__shift_4_4 .p2align 4, 0x90 _test_uint32_t__shift_4_4: ## @test_uint32_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_5 ## -- Begin function test_uint32_t__shift_4_5 .p2align 4, 0x90 _test_uint32_t__shift_4_5: ## @test_uint32_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_6 ## -- Begin function test_uint32_t__shift_4_6 .p2align 4, 0x90 _test_uint32_t__shift_4_6: ## @test_uint32_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_7 ## -- Begin function test_uint32_t__shift_4_7 .p2align 4, 0x90 _test_uint32_t__shift_4_7: ## @test_uint32_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_8 ## -- Begin function test_uint32_t__shift_4_8 .p2align 4, 0x90 _test_uint32_t__shift_4_8: ## @test_uint32_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_9 ## -- Begin function test_uint32_t__shift_4_9 .p2align 4, 0x90 _test_uint32_t__shift_4_9: ## @test_uint32_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_10 ## -- Begin function test_uint32_t__shift_4_10 .p2align 4, 0x90 _test_uint32_t__shift_4_10: ## @test_uint32_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_4_11 ## -- Begin function test_uint32_t__shift_4_11 .p2align 4, 0x90 _test_uint32_t__shift_4_11: ## @test_uint32_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_0 ## -- Begin function test_uint32_t__shift_5_0 .p2align 4, 0x90 _test_uint32_t__shift_5_0: ## @test_uint32_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_1 ## -- Begin function test_uint32_t__shift_5_1 .p2align 4, 0x90 _test_uint32_t__shift_5_1: ## @test_uint32_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_2 ## -- Begin function test_uint32_t__shift_5_2 .p2align 4, 0x90 _test_uint32_t__shift_5_2: ## @test_uint32_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_3 ## -- Begin function test_uint32_t__shift_5_3 .p2align 4, 0x90 _test_uint32_t__shift_5_3: ## @test_uint32_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_4 ## -- Begin function test_uint32_t__shift_5_4 .p2align 4, 0x90 _test_uint32_t__shift_5_4: ## @test_uint32_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_5 ## -- Begin function test_uint32_t__shift_5_5 .p2align 4, 0x90 _test_uint32_t__shift_5_5: ## @test_uint32_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_6 ## -- Begin function test_uint32_t__shift_5_6 .p2align 4, 0x90 _test_uint32_t__shift_5_6: ## @test_uint32_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_7 ## -- Begin function test_uint32_t__shift_5_7 .p2align 4, 0x90 _test_uint32_t__shift_5_7: ## @test_uint32_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_8 ## -- Begin function test_uint32_t__shift_5_8 .p2align 4, 0x90 _test_uint32_t__shift_5_8: ## @test_uint32_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_9 ## -- Begin function test_uint32_t__shift_5_9 .p2align 4, 0x90 _test_uint32_t__shift_5_9: ## @test_uint32_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_10 ## -- Begin function test_uint32_t__shift_5_10 .p2align 4, 0x90 _test_uint32_t__shift_5_10: ## @test_uint32_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_5_11 ## -- Begin function test_uint32_t__shift_5_11 .p2align 4, 0x90 _test_uint32_t__shift_5_11: ## @test_uint32_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_0 ## -- Begin function test_uint32_t__shift_6_0 .p2align 4, 0x90 _test_uint32_t__shift_6_0: ## @test_uint32_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_1 ## -- Begin function test_uint32_t__shift_6_1 .p2align 4, 0x90 _test_uint32_t__shift_6_1: ## @test_uint32_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_2 ## -- Begin function test_uint32_t__shift_6_2 .p2align 4, 0x90 _test_uint32_t__shift_6_2: ## @test_uint32_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_3 ## -- Begin function test_uint32_t__shift_6_3 .p2align 4, 0x90 _test_uint32_t__shift_6_3: ## @test_uint32_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_4 ## -- Begin function test_uint32_t__shift_6_4 .p2align 4, 0x90 _test_uint32_t__shift_6_4: ## @test_uint32_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_5 ## -- Begin function test_uint32_t__shift_6_5 .p2align 4, 0x90 _test_uint32_t__shift_6_5: ## @test_uint32_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_6 ## -- Begin function test_uint32_t__shift_6_6 .p2align 4, 0x90 _test_uint32_t__shift_6_6: ## @test_uint32_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_7 ## -- Begin function test_uint32_t__shift_6_7 .p2align 4, 0x90 _test_uint32_t__shift_6_7: ## @test_uint32_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_8 ## -- Begin function test_uint32_t__shift_6_8 .p2align 4, 0x90 _test_uint32_t__shift_6_8: ## @test_uint32_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_9 ## -- Begin function test_uint32_t__shift_6_9 .p2align 4, 0x90 _test_uint32_t__shift_6_9: ## @test_uint32_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_10 ## -- Begin function test_uint32_t__shift_6_10 .p2align 4, 0x90 _test_uint32_t__shift_6_10: ## @test_uint32_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_6_11 ## -- Begin function test_uint32_t__shift_6_11 .p2align 4, 0x90 _test_uint32_t__shift_6_11: ## @test_uint32_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_0 ## -- Begin function test_uint32_t__shift_7_0 .p2align 4, 0x90 _test_uint32_t__shift_7_0: ## @test_uint32_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_1 ## -- Begin function test_uint32_t__shift_7_1 .p2align 4, 0x90 _test_uint32_t__shift_7_1: ## @test_uint32_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_2 ## -- Begin function test_uint32_t__shift_7_2 .p2align 4, 0x90 _test_uint32_t__shift_7_2: ## @test_uint32_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_3 ## -- Begin function test_uint32_t__shift_7_3 .p2align 4, 0x90 _test_uint32_t__shift_7_3: ## @test_uint32_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_4 ## -- Begin function test_uint32_t__shift_7_4 .p2align 4, 0x90 _test_uint32_t__shift_7_4: ## @test_uint32_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_5 ## -- Begin function test_uint32_t__shift_7_5 .p2align 4, 0x90 _test_uint32_t__shift_7_5: ## @test_uint32_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl %edi, %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_6 ## -- Begin function test_uint32_t__shift_7_6 .p2align 4, 0x90 _test_uint32_t__shift_7_6: ## @test_uint32_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_7 ## -- Begin function test_uint32_t__shift_7_7 .p2align 4, 0x90 _test_uint32_t__shift_7_7: ## @test_uint32_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_8 ## -- Begin function test_uint32_t__shift_7_8 .p2align 4, 0x90 _test_uint32_t__shift_7_8: ## @test_uint32_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_9 ## -- Begin function test_uint32_t__shift_7_9 .p2align 4, 0x90 _test_uint32_t__shift_7_9: ## @test_uint32_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_10 ## -- Begin function test_uint32_t__shift_7_10 .p2align 4, 0x90 _test_uint32_t__shift_7_10: ## @test_uint32_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint32_t__shift_7_11 ## -- Begin function test_uint32_t__shift_7_11 .p2align 4, 0x90 _test_uint32_t__shift_7_11: ## @test_uint32_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_0 ## -- Begin function test_int64_t__shift_0_0 .p2align 4, 0x90 _test_int64_t__shift_0_0: ## @test_int64_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_1 ## -- Begin function test_int64_t__shift_0_1 .p2align 4, 0x90 _test_int64_t__shift_0_1: ## @test_int64_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_2 ## -- Begin function test_int64_t__shift_0_2 .p2align 4, 0x90 _test_int64_t__shift_0_2: ## @test_int64_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax notl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_3 ## -- Begin function test_int64_t__shift_0_3 .p2align 4, 0x90 _test_int64_t__shift_0_3: ## @test_int64_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_4 ## -- Begin function test_int64_t__shift_0_4 .p2align 4, 0x90 _test_int64_t__shift_0_4: ## @test_int64_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax notl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_5 ## -- Begin function test_int64_t__shift_0_5 .p2align 4, 0x90 _test_int64_t__shift_0_5: ## @test_int64_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_6 ## -- Begin function test_int64_t__shift_0_6 .p2align 4, 0x90 _test_int64_t__shift_0_6: ## @test_int64_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_7 ## -- Begin function test_int64_t__shift_0_7 .p2align 4, 0x90 _test_int64_t__shift_0_7: ## @test_int64_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_8 ## -- Begin function test_int64_t__shift_0_8 .p2align 4, 0x90 _test_int64_t__shift_0_8: ## @test_int64_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_9 ## -- Begin function test_int64_t__shift_0_9 .p2align 4, 0x90 _test_int64_t__shift_0_9: ## @test_int64_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_10 ## -- Begin function test_int64_t__shift_0_10 .p2align 4, 0x90 _test_int64_t__shift_0_10: ## @test_int64_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_0_11 ## -- Begin function test_int64_t__shift_0_11 .p2align 4, 0x90 _test_int64_t__shift_0_11: ## @test_int64_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_0 ## -- Begin function test_int64_t__shift_1_0 .p2align 4, 0x90 _test_int64_t__shift_1_0: ## @test_int64_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_1 ## -- Begin function test_int64_t__shift_1_1 .p2align 4, 0x90 _test_int64_t__shift_1_1: ## @test_int64_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_2 ## -- Begin function test_int64_t__shift_1_2 .p2align 4, 0x90 _test_int64_t__shift_1_2: ## @test_int64_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_3 ## -- Begin function test_int64_t__shift_1_3 .p2align 4, 0x90 _test_int64_t__shift_1_3: ## @test_int64_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_4 ## -- Begin function test_int64_t__shift_1_4 .p2align 4, 0x90 _test_int64_t__shift_1_4: ## @test_int64_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_5 ## -- Begin function test_int64_t__shift_1_5 .p2align 4, 0x90 _test_int64_t__shift_1_5: ## @test_int64_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_6 ## -- Begin function test_int64_t__shift_1_6 .p2align 4, 0x90 _test_int64_t__shift_1_6: ## @test_int64_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_7 ## -- Begin function test_int64_t__shift_1_7 .p2align 4, 0x90 _test_int64_t__shift_1_7: ## @test_int64_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_8 ## -- Begin function test_int64_t__shift_1_8 .p2align 4, 0x90 _test_int64_t__shift_1_8: ## @test_int64_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_9 ## -- Begin function test_int64_t__shift_1_9 .p2align 4, 0x90 _test_int64_t__shift_1_9: ## @test_int64_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_10 ## -- Begin function test_int64_t__shift_1_10 .p2align 4, 0x90 _test_int64_t__shift_1_10: ## @test_int64_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_1_11 ## -- Begin function test_int64_t__shift_1_11 .p2align 4, 0x90 _test_int64_t__shift_1_11: ## @test_int64_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_0 ## -- Begin function test_int64_t__shift_2_0 .p2align 4, 0x90 _test_int64_t__shift_2_0: ## @test_int64_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_1 ## -- Begin function test_int64_t__shift_2_1 .p2align 4, 0x90 _test_int64_t__shift_2_1: ## @test_int64_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_2 ## -- Begin function test_int64_t__shift_2_2 .p2align 4, 0x90 _test_int64_t__shift_2_2: ## @test_int64_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_3 ## -- Begin function test_int64_t__shift_2_3 .p2align 4, 0x90 _test_int64_t__shift_2_3: ## @test_int64_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $2, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_4 ## -- Begin function test_int64_t__shift_2_4 .p2align 4, 0x90 _test_int64_t__shift_2_4: ## @test_int64_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_5 ## -- Begin function test_int64_t__shift_2_5 .p2align 4, 0x90 _test_int64_t__shift_2_5: ## @test_int64_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $2, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_6 ## -- Begin function test_int64_t__shift_2_6 .p2align 4, 0x90 _test_int64_t__shift_2_6: ## @test_int64_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_7 ## -- Begin function test_int64_t__shift_2_7 .p2align 4, 0x90 _test_int64_t__shift_2_7: ## @test_int64_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_8 ## -- Begin function test_int64_t__shift_2_8 .p2align 4, 0x90 _test_int64_t__shift_2_8: ## @test_int64_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_9 ## -- Begin function test_int64_t__shift_2_9 .p2align 4, 0x90 _test_int64_t__shift_2_9: ## @test_int64_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_10 ## -- Begin function test_int64_t__shift_2_10 .p2align 4, 0x90 _test_int64_t__shift_2_10: ## @test_int64_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_2_11 ## -- Begin function test_int64_t__shift_2_11 .p2align 4, 0x90 _test_int64_t__shift_2_11: ## @test_int64_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_0 ## -- Begin function test_int64_t__shift_3_0 .p2align 4, 0x90 _test_int64_t__shift_3_0: ## @test_int64_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_1 ## -- Begin function test_int64_t__shift_3_1 .p2align 4, 0x90 _test_int64_t__shift_3_1: ## @test_int64_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_2 ## -- Begin function test_int64_t__shift_3_2 .p2align 4, 0x90 _test_int64_t__shift_3_2: ## @test_int64_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_3 ## -- Begin function test_int64_t__shift_3_3 .p2align 4, 0x90 _test_int64_t__shift_3_3: ## @test_int64_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $3, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_4 ## -- Begin function test_int64_t__shift_3_4 .p2align 4, 0x90 _test_int64_t__shift_3_4: ## @test_int64_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_5 ## -- Begin function test_int64_t__shift_3_5 .p2align 4, 0x90 _test_int64_t__shift_3_5: ## @test_int64_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $3, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_6 ## -- Begin function test_int64_t__shift_3_6 .p2align 4, 0x90 _test_int64_t__shift_3_6: ## @test_int64_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_7 ## -- Begin function test_int64_t__shift_3_7 .p2align 4, 0x90 _test_int64_t__shift_3_7: ## @test_int64_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_8 ## -- Begin function test_int64_t__shift_3_8 .p2align 4, 0x90 _test_int64_t__shift_3_8: ## @test_int64_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_9 ## -- Begin function test_int64_t__shift_3_9 .p2align 4, 0x90 _test_int64_t__shift_3_9: ## @test_int64_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_10 ## -- Begin function test_int64_t__shift_3_10 .p2align 4, 0x90 _test_int64_t__shift_3_10: ## @test_int64_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_3_11 ## -- Begin function test_int64_t__shift_3_11 .p2align 4, 0x90 _test_int64_t__shift_3_11: ## @test_int64_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_0 ## -- Begin function test_int64_t__shift_4_0 .p2align 4, 0x90 _test_int64_t__shift_4_0: ## @test_int64_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_1 ## -- Begin function test_int64_t__shift_4_1 .p2align 4, 0x90 _test_int64_t__shift_4_1: ## @test_int64_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_2 ## -- Begin function test_int64_t__shift_4_2 .p2align 4, 0x90 _test_int64_t__shift_4_2: ## @test_int64_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_3 ## -- Begin function test_int64_t__shift_4_3 .p2align 4, 0x90 _test_int64_t__shift_4_3: ## @test_int64_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $4, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_4 ## -- Begin function test_int64_t__shift_4_4 .p2align 4, 0x90 _test_int64_t__shift_4_4: ## @test_int64_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_5 ## -- Begin function test_int64_t__shift_4_5 .p2align 4, 0x90 _test_int64_t__shift_4_5: ## @test_int64_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $4, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_6 ## -- Begin function test_int64_t__shift_4_6 .p2align 4, 0x90 _test_int64_t__shift_4_6: ## @test_int64_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_7 ## -- Begin function test_int64_t__shift_4_7 .p2align 4, 0x90 _test_int64_t__shift_4_7: ## @test_int64_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_8 ## -- Begin function test_int64_t__shift_4_8 .p2align 4, 0x90 _test_int64_t__shift_4_8: ## @test_int64_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_9 ## -- Begin function test_int64_t__shift_4_9 .p2align 4, 0x90 _test_int64_t__shift_4_9: ## @test_int64_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_10 ## -- Begin function test_int64_t__shift_4_10 .p2align 4, 0x90 _test_int64_t__shift_4_10: ## @test_int64_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_4_11 ## -- Begin function test_int64_t__shift_4_11 .p2align 4, 0x90 _test_int64_t__shift_4_11: ## @test_int64_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_0 ## -- Begin function test_int64_t__shift_5_0 .p2align 4, 0x90 _test_int64_t__shift_5_0: ## @test_int64_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_1 ## -- Begin function test_int64_t__shift_5_1 .p2align 4, 0x90 _test_int64_t__shift_5_1: ## @test_int64_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_2 ## -- Begin function test_int64_t__shift_5_2 .p2align 4, 0x90 _test_int64_t__shift_5_2: ## @test_int64_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_3 ## -- Begin function test_int64_t__shift_5_3 .p2align 4, 0x90 _test_int64_t__shift_5_3: ## @test_int64_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $5, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_4 ## -- Begin function test_int64_t__shift_5_4 .p2align 4, 0x90 _test_int64_t__shift_5_4: ## @test_int64_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_5 ## -- Begin function test_int64_t__shift_5_5 .p2align 4, 0x90 _test_int64_t__shift_5_5: ## @test_int64_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $5, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_6 ## -- Begin function test_int64_t__shift_5_6 .p2align 4, 0x90 _test_int64_t__shift_5_6: ## @test_int64_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_7 ## -- Begin function test_int64_t__shift_5_7 .p2align 4, 0x90 _test_int64_t__shift_5_7: ## @test_int64_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_8 ## -- Begin function test_int64_t__shift_5_8 .p2align 4, 0x90 _test_int64_t__shift_5_8: ## @test_int64_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_9 ## -- Begin function test_int64_t__shift_5_9 .p2align 4, 0x90 _test_int64_t__shift_5_9: ## @test_int64_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_10 ## -- Begin function test_int64_t__shift_5_10 .p2align 4, 0x90 _test_int64_t__shift_5_10: ## @test_int64_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_5_11 ## -- Begin function test_int64_t__shift_5_11 .p2align 4, 0x90 _test_int64_t__shift_5_11: ## @test_int64_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_0 ## -- Begin function test_int64_t__shift_6_0 .p2align 4, 0x90 _test_int64_t__shift_6_0: ## @test_int64_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_1 ## -- Begin function test_int64_t__shift_6_1 .p2align 4, 0x90 _test_int64_t__shift_6_1: ## @test_int64_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_2 ## -- Begin function test_int64_t__shift_6_2 .p2align 4, 0x90 _test_int64_t__shift_6_2: ## @test_int64_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_3 ## -- Begin function test_int64_t__shift_6_3 .p2align 4, 0x90 _test_int64_t__shift_6_3: ## @test_int64_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $6, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_4 ## -- Begin function test_int64_t__shift_6_4 .p2align 4, 0x90 _test_int64_t__shift_6_4: ## @test_int64_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_5 ## -- Begin function test_int64_t__shift_6_5 .p2align 4, 0x90 _test_int64_t__shift_6_5: ## @test_int64_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $6, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_6 ## -- Begin function test_int64_t__shift_6_6 .p2align 4, 0x90 _test_int64_t__shift_6_6: ## @test_int64_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_7 ## -- Begin function test_int64_t__shift_6_7 .p2align 4, 0x90 _test_int64_t__shift_6_7: ## @test_int64_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_8 ## -- Begin function test_int64_t__shift_6_8 .p2align 4, 0x90 _test_int64_t__shift_6_8: ## @test_int64_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_9 ## -- Begin function test_int64_t__shift_6_9 .p2align 4, 0x90 _test_int64_t__shift_6_9: ## @test_int64_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_10 ## -- Begin function test_int64_t__shift_6_10 .p2align 4, 0x90 _test_int64_t__shift_6_10: ## @test_int64_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_6_11 ## -- Begin function test_int64_t__shift_6_11 .p2align 4, 0x90 _test_int64_t__shift_6_11: ## @test_int64_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_0 ## -- Begin function test_int64_t__shift_7_0 .p2align 4, 0x90 _test_int64_t__shift_7_0: ## @test_int64_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_1 ## -- Begin function test_int64_t__shift_7_1 .p2align 4, 0x90 _test_int64_t__shift_7_1: ## @test_int64_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_2 ## -- Begin function test_int64_t__shift_7_2 .p2align 4, 0x90 _test_int64_t__shift_7_2: ## @test_int64_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_3 ## -- Begin function test_int64_t__shift_7_3 .p2align 4, 0x90 _test_int64_t__shift_7_3: ## @test_int64_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $7, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_4 ## -- Begin function test_int64_t__shift_7_4 .p2align 4, 0x90 _test_int64_t__shift_7_4: ## @test_int64_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_5 ## -- Begin function test_int64_t__shift_7_5 .p2align 4, 0x90 _test_int64_t__shift_7_5: ## @test_int64_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $7, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_6 ## -- Begin function test_int64_t__shift_7_6 .p2align 4, 0x90 _test_int64_t__shift_7_6: ## @test_int64_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_7 ## -- Begin function test_int64_t__shift_7_7 .p2align 4, 0x90 _test_int64_t__shift_7_7: ## @test_int64_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_8 ## -- Begin function test_int64_t__shift_7_8 .p2align 4, 0x90 _test_int64_t__shift_7_8: ## @test_int64_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_9 ## -- Begin function test_int64_t__shift_7_9 .p2align 4, 0x90 _test_int64_t__shift_7_9: ## @test_int64_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_10 ## -- Begin function test_int64_t__shift_7_10 .p2align 4, 0x90 _test_int64_t__shift_7_10: ## @test_int64_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_int64_t__shift_7_11 ## -- Begin function test_int64_t__shift_7_11 .p2align 4, 0x90 _test_int64_t__shift_7_11: ## @test_int64_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_0 ## -- Begin function test_uint64_t__shift_0_0 .p2align 4, 0x90 _test_uint64_t__shift_0_0: ## @test_uint64_t__shift_0_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_1 ## -- Begin function test_uint64_t__shift_0_1 .p2align 4, 0x90 _test_uint64_t__shift_0_1: ## @test_uint64_t__shift_0_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_2 ## -- Begin function test_uint64_t__shift_0_2 .p2align 4, 0x90 _test_uint64_t__shift_0_2: ## @test_uint64_t__shift_0_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax notl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_3 ## -- Begin function test_uint64_t__shift_0_3 .p2align 4, 0x90 _test_uint64_t__shift_0_3: ## @test_uint64_t__shift_0_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_4 ## -- Begin function test_uint64_t__shift_0_4 .p2align 4, 0x90 _test_uint64_t__shift_0_4: ## @test_uint64_t__shift_0_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax notl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_5 ## -- Begin function test_uint64_t__shift_0_5 .p2align 4, 0x90 _test_uint64_t__shift_0_5: ## @test_uint64_t__shift_0_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_6 ## -- Begin function test_uint64_t__shift_0_6 .p2align 4, 0x90 _test_uint64_t__shift_0_6: ## @test_uint64_t__shift_0_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_7 ## -- Begin function test_uint64_t__shift_0_7 .p2align 4, 0x90 _test_uint64_t__shift_0_7: ## @test_uint64_t__shift_0_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $1, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_8 ## -- Begin function test_uint64_t__shift_0_8 .p2align 4, 0x90 _test_uint64_t__shift_0_8: ## @test_uint64_t__shift_0_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_9 ## -- Begin function test_uint64_t__shift_0_9 .p2align 4, 0x90 _test_uint64_t__shift_0_9: ## @test_uint64_t__shift_0_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_10 ## -- Begin function test_uint64_t__shift_0_10 .p2align 4, 0x90 _test_uint64_t__shift_0_10: ## @test_uint64_t__shift_0_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax notl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_0_11 ## -- Begin function test_uint64_t__shift_0_11 .p2align 4, 0x90 _test_uint64_t__shift_0_11: ## @test_uint64_t__shift_0_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_0 ## -- Begin function test_uint64_t__shift_1_0 .p2align 4, 0x90 _test_uint64_t__shift_1_0: ## @test_uint64_t__shift_1_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_1 ## -- Begin function test_uint64_t__shift_1_1 .p2align 4, 0x90 _test_uint64_t__shift_1_1: ## @test_uint64_t__shift_1_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_2 ## -- Begin function test_uint64_t__shift_1_2 .p2align 4, 0x90 _test_uint64_t__shift_1_2: ## @test_uint64_t__shift_1_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_3 ## -- Begin function test_uint64_t__shift_1_3 .p2align 4, 0x90 _test_uint64_t__shift_1_3: ## @test_uint64_t__shift_1_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_4 ## -- Begin function test_uint64_t__shift_1_4 .p2align 4, 0x90 _test_uint64_t__shift_1_4: ## @test_uint64_t__shift_1_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_5 ## -- Begin function test_uint64_t__shift_1_5 .p2align 4, 0x90 _test_uint64_t__shift_1_5: ## @test_uint64_t__shift_1_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_6 ## -- Begin function test_uint64_t__shift_1_6 .p2align 4, 0x90 _test_uint64_t__shift_1_6: ## @test_uint64_t__shift_1_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_7 ## -- Begin function test_uint64_t__shift_1_7 .p2align 4, 0x90 _test_uint64_t__shift_1_7: ## @test_uint64_t__shift_1_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $2, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_8 ## -- Begin function test_uint64_t__shift_1_8 .p2align 4, 0x90 _test_uint64_t__shift_1_8: ## @test_uint64_t__shift_1_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_9 ## -- Begin function test_uint64_t__shift_1_9 .p2align 4, 0x90 _test_uint64_t__shift_1_9: ## @test_uint64_t__shift_1_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_10 ## -- Begin function test_uint64_t__shift_1_10 .p2align 4, 0x90 _test_uint64_t__shift_1_10: ## @test_uint64_t__shift_1_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $2, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_1_11 ## -- Begin function test_uint64_t__shift_1_11 .p2align 4, 0x90 _test_uint64_t__shift_1_11: ## @test_uint64_t__shift_1_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_0 ## -- Begin function test_uint64_t__shift_2_0 .p2align 4, 0x90 _test_uint64_t__shift_2_0: ## @test_uint64_t__shift_2_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_1 ## -- Begin function test_uint64_t__shift_2_1 .p2align 4, 0x90 _test_uint64_t__shift_2_1: ## @test_uint64_t__shift_2_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_2 ## -- Begin function test_uint64_t__shift_2_2 .p2align 4, 0x90 _test_uint64_t__shift_2_2: ## @test_uint64_t__shift_2_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_3 ## -- Begin function test_uint64_t__shift_2_3 .p2align 4, 0x90 _test_uint64_t__shift_2_3: ## @test_uint64_t__shift_2_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $2, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_4 ## -- Begin function test_uint64_t__shift_2_4 .p2align 4, 0x90 _test_uint64_t__shift_2_4: ## @test_uint64_t__shift_2_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_5 ## -- Begin function test_uint64_t__shift_2_5 .p2align 4, 0x90 _test_uint64_t__shift_2_5: ## @test_uint64_t__shift_2_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $2, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_6 ## -- Begin function test_uint64_t__shift_2_6 .p2align 4, 0x90 _test_uint64_t__shift_2_6: ## @test_uint64_t__shift_2_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_7 ## -- Begin function test_uint64_t__shift_2_7 .p2align 4, 0x90 _test_uint64_t__shift_2_7: ## @test_uint64_t__shift_2_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $4, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_8 ## -- Begin function test_uint64_t__shift_2_8 .p2align 4, 0x90 _test_uint64_t__shift_2_8: ## @test_uint64_t__shift_2_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_9 ## -- Begin function test_uint64_t__shift_2_9 .p2align 4, 0x90 _test_uint64_t__shift_2_9: ## @test_uint64_t__shift_2_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_10 ## -- Begin function test_uint64_t__shift_2_10 .p2align 4, 0x90 _test_uint64_t__shift_2_10: ## @test_uint64_t__shift_2_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $4, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_2_11 ## -- Begin function test_uint64_t__shift_2_11 .p2align 4, 0x90 _test_uint64_t__shift_2_11: ## @test_uint64_t__shift_2_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $2, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_0 ## -- Begin function test_uint64_t__shift_3_0 .p2align 4, 0x90 _test_uint64_t__shift_3_0: ## @test_uint64_t__shift_3_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_1 ## -- Begin function test_uint64_t__shift_3_1 .p2align 4, 0x90 _test_uint64_t__shift_3_1: ## @test_uint64_t__shift_3_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_2 ## -- Begin function test_uint64_t__shift_3_2 .p2align 4, 0x90 _test_uint64_t__shift_3_2: ## @test_uint64_t__shift_3_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_3 ## -- Begin function test_uint64_t__shift_3_3 .p2align 4, 0x90 _test_uint64_t__shift_3_3: ## @test_uint64_t__shift_3_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $3, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_4 ## -- Begin function test_uint64_t__shift_3_4 .p2align 4, 0x90 _test_uint64_t__shift_3_4: ## @test_uint64_t__shift_3_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_5 ## -- Begin function test_uint64_t__shift_3_5 .p2align 4, 0x90 _test_uint64_t__shift_3_5: ## @test_uint64_t__shift_3_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $3, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_6 ## -- Begin function test_uint64_t__shift_3_6 .p2align 4, 0x90 _test_uint64_t__shift_3_6: ## @test_uint64_t__shift_3_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_7 ## -- Begin function test_uint64_t__shift_3_7 .p2align 4, 0x90 _test_uint64_t__shift_3_7: ## @test_uint64_t__shift_3_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $8, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_8 ## -- Begin function test_uint64_t__shift_3_8 .p2align 4, 0x90 _test_uint64_t__shift_3_8: ## @test_uint64_t__shift_3_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_9 ## -- Begin function test_uint64_t__shift_3_9 .p2align 4, 0x90 _test_uint64_t__shift_3_9: ## @test_uint64_t__shift_3_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_10 ## -- Begin function test_uint64_t__shift_3_10 .p2align 4, 0x90 _test_uint64_t__shift_3_10: ## @test_uint64_t__shift_3_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $8, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_3_11 ## -- Begin function test_uint64_t__shift_3_11 .p2align 4, 0x90 _test_uint64_t__shift_3_11: ## @test_uint64_t__shift_3_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $3, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_0 ## -- Begin function test_uint64_t__shift_4_0 .p2align 4, 0x90 _test_uint64_t__shift_4_0: ## @test_uint64_t__shift_4_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_1 ## -- Begin function test_uint64_t__shift_4_1 .p2align 4, 0x90 _test_uint64_t__shift_4_1: ## @test_uint64_t__shift_4_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_2 ## -- Begin function test_uint64_t__shift_4_2 .p2align 4, 0x90 _test_uint64_t__shift_4_2: ## @test_uint64_t__shift_4_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_3 ## -- Begin function test_uint64_t__shift_4_3 .p2align 4, 0x90 _test_uint64_t__shift_4_3: ## @test_uint64_t__shift_4_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $4, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_4 ## -- Begin function test_uint64_t__shift_4_4 .p2align 4, 0x90 _test_uint64_t__shift_4_4: ## @test_uint64_t__shift_4_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_5 ## -- Begin function test_uint64_t__shift_4_5 .p2align 4, 0x90 _test_uint64_t__shift_4_5: ## @test_uint64_t__shift_4_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $4, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_6 ## -- Begin function test_uint64_t__shift_4_6 .p2align 4, 0x90 _test_uint64_t__shift_4_6: ## @test_uint64_t__shift_4_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_7 ## -- Begin function test_uint64_t__shift_4_7 .p2align 4, 0x90 _test_uint64_t__shift_4_7: ## @test_uint64_t__shift_4_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $16, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_8 ## -- Begin function test_uint64_t__shift_4_8 .p2align 4, 0x90 _test_uint64_t__shift_4_8: ## @test_uint64_t__shift_4_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_9 ## -- Begin function test_uint64_t__shift_4_9 .p2align 4, 0x90 _test_uint64_t__shift_4_9: ## @test_uint64_t__shift_4_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_10 ## -- Begin function test_uint64_t__shift_4_10 .p2align 4, 0x90 _test_uint64_t__shift_4_10: ## @test_uint64_t__shift_4_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $16, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_4_11 ## -- Begin function test_uint64_t__shift_4_11 .p2align 4, 0x90 _test_uint64_t__shift_4_11: ## @test_uint64_t__shift_4_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $4, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_0 ## -- Begin function test_uint64_t__shift_5_0 .p2align 4, 0x90 _test_uint64_t__shift_5_0: ## @test_uint64_t__shift_5_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_1 ## -- Begin function test_uint64_t__shift_5_1 .p2align 4, 0x90 _test_uint64_t__shift_5_1: ## @test_uint64_t__shift_5_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_2 ## -- Begin function test_uint64_t__shift_5_2 .p2align 4, 0x90 _test_uint64_t__shift_5_2: ## @test_uint64_t__shift_5_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_3 ## -- Begin function test_uint64_t__shift_5_3 .p2align 4, 0x90 _test_uint64_t__shift_5_3: ## @test_uint64_t__shift_5_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $5, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_4 ## -- Begin function test_uint64_t__shift_5_4 .p2align 4, 0x90 _test_uint64_t__shift_5_4: ## @test_uint64_t__shift_5_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_5 ## -- Begin function test_uint64_t__shift_5_5 .p2align 4, 0x90 _test_uint64_t__shift_5_5: ## @test_uint64_t__shift_5_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $5, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_6 ## -- Begin function test_uint64_t__shift_5_6 .p2align 4, 0x90 _test_uint64_t__shift_5_6: ## @test_uint64_t__shift_5_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_7 ## -- Begin function test_uint64_t__shift_5_7 .p2align 4, 0x90 _test_uint64_t__shift_5_7: ## @test_uint64_t__shift_5_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $32, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_8 ## -- Begin function test_uint64_t__shift_5_8 .p2align 4, 0x90 _test_uint64_t__shift_5_8: ## @test_uint64_t__shift_5_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_9 ## -- Begin function test_uint64_t__shift_5_9 .p2align 4, 0x90 _test_uint64_t__shift_5_9: ## @test_uint64_t__shift_5_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_10 ## -- Begin function test_uint64_t__shift_5_10 .p2align 4, 0x90 _test_uint64_t__shift_5_10: ## @test_uint64_t__shift_5_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $32, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_5_11 ## -- Begin function test_uint64_t__shift_5_11 .p2align 4, 0x90 _test_uint64_t__shift_5_11: ## @test_uint64_t__shift_5_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $5, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_0 ## -- Begin function test_uint64_t__shift_6_0 .p2align 4, 0x90 _test_uint64_t__shift_6_0: ## @test_uint64_t__shift_6_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_1 ## -- Begin function test_uint64_t__shift_6_1 .p2align 4, 0x90 _test_uint64_t__shift_6_1: ## @test_uint64_t__shift_6_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_2 ## -- Begin function test_uint64_t__shift_6_2 .p2align 4, 0x90 _test_uint64_t__shift_6_2: ## @test_uint64_t__shift_6_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_3 ## -- Begin function test_uint64_t__shift_6_3 .p2align 4, 0x90 _test_uint64_t__shift_6_3: ## @test_uint64_t__shift_6_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $6, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_4 ## -- Begin function test_uint64_t__shift_6_4 .p2align 4, 0x90 _test_uint64_t__shift_6_4: ## @test_uint64_t__shift_6_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_5 ## -- Begin function test_uint64_t__shift_6_5 .p2align 4, 0x90 _test_uint64_t__shift_6_5: ## @test_uint64_t__shift_6_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $6, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_6 ## -- Begin function test_uint64_t__shift_6_6 .p2align 4, 0x90 _test_uint64_t__shift_6_6: ## @test_uint64_t__shift_6_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_7 ## -- Begin function test_uint64_t__shift_6_7 .p2align 4, 0x90 _test_uint64_t__shift_6_7: ## @test_uint64_t__shift_6_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $64, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_8 ## -- Begin function test_uint64_t__shift_6_8 .p2align 4, 0x90 _test_uint64_t__shift_6_8: ## @test_uint64_t__shift_6_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_9 ## -- Begin function test_uint64_t__shift_6_9 .p2align 4, 0x90 _test_uint64_t__shift_6_9: ## @test_uint64_t__shift_6_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_10 ## -- Begin function test_uint64_t__shift_6_10 .p2align 4, 0x90 _test_uint64_t__shift_6_10: ## @test_uint64_t__shift_6_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $64, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_6_11 ## -- Begin function test_uint64_t__shift_6_11 .p2align 4, 0x90 _test_uint64_t__shift_6_11: ## @test_uint64_t__shift_6_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $6, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_0 ## -- Begin function test_uint64_t__shift_7_0 .p2align 4, 0x90 _test_uint64_t__shift_7_0: ## @test_uint64_t__shift_7_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_1 ## -- Begin function test_uint64_t__shift_7_1 .p2align 4, 0x90 _test_uint64_t__shift_7_1: ## @test_uint64_t__shift_7_1 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, %dil movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_2 ## -- Begin function test_uint64_t__shift_7_2 .p2align 4, 0x90 _test_uint64_t__shift_7_2: ## @test_uint64_t__shift_7_2 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_3 ## -- Begin function test_uint64_t__shift_7_3 .p2align 4, 0x90 _test_uint64_t__shift_7_3: ## @test_uint64_t__shift_7_3 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $7, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_4 ## -- Begin function test_uint64_t__shift_7_4 .p2align 4, 0x90 _test_uint64_t__shift_7_4: ## @test_uint64_t__shift_7_4 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, %dil sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_5 ## -- Begin function test_uint64_t__shift_7_5 .p2align 4, 0x90 _test_uint64_t__shift_7_5: ## @test_uint64_t__shift_7_5 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq %rdi, %rax shrl $7, %eax andl $1, %eax ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_6 ## -- Begin function test_uint64_t__shift_7_6 .p2align 4, 0x90 _test_uint64_t__shift_7_6: ## @test_uint64_t__shift_7_6 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-40, %ecx movl $-10, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_7 ## -- Begin function test_uint64_t__shift_7_7 .p2align 4, 0x90 _test_uint64_t__shift_7_7: ## @test_uint64_t__shift_7_7 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testb $-128, (%rdi) movl $-10, %ecx movl $-40, %eax cmovel %ecx, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_8 ## -- Begin function test_uint64_t__shift_7_8 .p2align 4, 0x90 _test_uint64_t__shift_7_8: ## @test_uint64_t__shift_7_8 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_9 ## -- Begin function test_uint64_t__shift_7_9 .p2align 4, 0x90 _test_uint64_t__shift_7_9: ## @test_uint64_t__shift_7_9 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_10 ## -- Begin function test_uint64_t__shift_7_10 .p2align 4, 0x90 _test_uint64_t__shift_7_10: ## @test_uint64_t__shift_7_10 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp xorl %eax, %eax testb $-128, (%rdi) sete %al popq %rbp retq .cfi_endproc ## -- End function .globl _test_uint64_t__shift_7_11 ## -- Begin function test_uint64_t__shift_7_11 .p2align 4, 0x90 _test_uint64_t__shift_7_11: ## @test_uint64_t__shift_7_11 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl (%rdi), %eax shrl $7, %eax andl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _test_int8_t__shift_0_0 ; -- Begin function test_int8_t__shift_0_0 .p2align 2 _test_int8_t__shift_0_0: ; @test_int8_t__shift_0_0 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_1 ; -- Begin function test_int8_t__shift_0_1 .p2align 2 _test_int8_t__shift_0_1: ; @test_int8_t__shift_0_1 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_2 ; -- Begin function test_int8_t__shift_0_2 .p2align 2 _test_int8_t__shift_0_2: ; @test_int8_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_3 ; -- Begin function test_int8_t__shift_0_3 .p2align 2 _test_int8_t__shift_0_3: ; @test_int8_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_4 ; -- Begin function test_int8_t__shift_0_4 .p2align 2 _test_int8_t__shift_0_4: ; @test_int8_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_5 ; -- Begin function test_int8_t__shift_0_5 .p2align 2 _test_int8_t__shift_0_5: ; @test_int8_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_6 ; -- Begin function test_int8_t__shift_0_6 .p2align 2 _test_int8_t__shift_0_6: ; @test_int8_t__shift_0_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_7 ; -- Begin function test_int8_t__shift_0_7 .p2align 2 _test_int8_t__shift_0_7: ; @test_int8_t__shift_0_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_8 ; -- Begin function test_int8_t__shift_0_8 .p2align 2 _test_int8_t__shift_0_8: ; @test_int8_t__shift_0_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_9 ; -- Begin function test_int8_t__shift_0_9 .p2align 2 _test_int8_t__shift_0_9: ; @test_int8_t__shift_0_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_10 ; -- Begin function test_int8_t__shift_0_10 .p2align 2 _test_int8_t__shift_0_10: ; @test_int8_t__shift_0_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_0_11 ; -- Begin function test_int8_t__shift_0_11 .p2align 2 _test_int8_t__shift_0_11: ; @test_int8_t__shift_0_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_0 ; -- Begin function test_int8_t__shift_1_0 .p2align 2 _test_int8_t__shift_1_0: ; @test_int8_t__shift_1_0 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_1 ; -- Begin function test_int8_t__shift_1_1 .p2align 2 _test_int8_t__shift_1_1: ; @test_int8_t__shift_1_1 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_2 ; -- Begin function test_int8_t__shift_1_2 .p2align 2 _test_int8_t__shift_1_2: ; @test_int8_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_3 ; -- Begin function test_int8_t__shift_1_3 .p2align 2 _test_int8_t__shift_1_3: ; @test_int8_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_4 ; -- Begin function test_int8_t__shift_1_4 .p2align 2 _test_int8_t__shift_1_4: ; @test_int8_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_5 ; -- Begin function test_int8_t__shift_1_5 .p2align 2 _test_int8_t__shift_1_5: ; @test_int8_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_6 ; -- Begin function test_int8_t__shift_1_6 .p2align 2 _test_int8_t__shift_1_6: ; @test_int8_t__shift_1_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_7 ; -- Begin function test_int8_t__shift_1_7 .p2align 2 _test_int8_t__shift_1_7: ; @test_int8_t__shift_1_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_8 ; -- Begin function test_int8_t__shift_1_8 .p2align 2 _test_int8_t__shift_1_8: ; @test_int8_t__shift_1_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_9 ; -- Begin function test_int8_t__shift_1_9 .p2align 2 _test_int8_t__shift_1_9: ; @test_int8_t__shift_1_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_10 ; -- Begin function test_int8_t__shift_1_10 .p2align 2 _test_int8_t__shift_1_10: ; @test_int8_t__shift_1_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_1_11 ; -- Begin function test_int8_t__shift_1_11 .p2align 2 _test_int8_t__shift_1_11: ; @test_int8_t__shift_1_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_0 ; -- Begin function test_int8_t__shift_2_0 .p2align 2 _test_int8_t__shift_2_0: ; @test_int8_t__shift_2_0 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_1 ; -- Begin function test_int8_t__shift_2_1 .p2align 2 _test_int8_t__shift_2_1: ; @test_int8_t__shift_2_1 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_2 ; -- Begin function test_int8_t__shift_2_2 .p2align 2 _test_int8_t__shift_2_2: ; @test_int8_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_3 ; -- Begin function test_int8_t__shift_2_3 .p2align 2 _test_int8_t__shift_2_3: ; @test_int8_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_4 ; -- Begin function test_int8_t__shift_2_4 .p2align 2 _test_int8_t__shift_2_4: ; @test_int8_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_5 ; -- Begin function test_int8_t__shift_2_5 .p2align 2 _test_int8_t__shift_2_5: ; @test_int8_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_6 ; -- Begin function test_int8_t__shift_2_6 .p2align 2 _test_int8_t__shift_2_6: ; @test_int8_t__shift_2_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_7 ; -- Begin function test_int8_t__shift_2_7 .p2align 2 _test_int8_t__shift_2_7: ; @test_int8_t__shift_2_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_8 ; -- Begin function test_int8_t__shift_2_8 .p2align 2 _test_int8_t__shift_2_8: ; @test_int8_t__shift_2_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_9 ; -- Begin function test_int8_t__shift_2_9 .p2align 2 _test_int8_t__shift_2_9: ; @test_int8_t__shift_2_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_10 ; -- Begin function test_int8_t__shift_2_10 .p2align 2 _test_int8_t__shift_2_10: ; @test_int8_t__shift_2_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_2_11 ; -- Begin function test_int8_t__shift_2_11 .p2align 2 _test_int8_t__shift_2_11: ; @test_int8_t__shift_2_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_0 ; -- Begin function test_int8_t__shift_3_0 .p2align 2 _test_int8_t__shift_3_0: ; @test_int8_t__shift_3_0 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_1 ; -- Begin function test_int8_t__shift_3_1 .p2align 2 _test_int8_t__shift_3_1: ; @test_int8_t__shift_3_1 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_2 ; -- Begin function test_int8_t__shift_3_2 .p2align 2 _test_int8_t__shift_3_2: ; @test_int8_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_3 ; -- Begin function test_int8_t__shift_3_3 .p2align 2 _test_int8_t__shift_3_3: ; @test_int8_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_4 ; -- Begin function test_int8_t__shift_3_4 .p2align 2 _test_int8_t__shift_3_4: ; @test_int8_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_5 ; -- Begin function test_int8_t__shift_3_5 .p2align 2 _test_int8_t__shift_3_5: ; @test_int8_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_6 ; -- Begin function test_int8_t__shift_3_6 .p2align 2 _test_int8_t__shift_3_6: ; @test_int8_t__shift_3_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_7 ; -- Begin function test_int8_t__shift_3_7 .p2align 2 _test_int8_t__shift_3_7: ; @test_int8_t__shift_3_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_8 ; -- Begin function test_int8_t__shift_3_8 .p2align 2 _test_int8_t__shift_3_8: ; @test_int8_t__shift_3_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_9 ; -- Begin function test_int8_t__shift_3_9 .p2align 2 _test_int8_t__shift_3_9: ; @test_int8_t__shift_3_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_10 ; -- Begin function test_int8_t__shift_3_10 .p2align 2 _test_int8_t__shift_3_10: ; @test_int8_t__shift_3_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_3_11 ; -- Begin function test_int8_t__shift_3_11 .p2align 2 _test_int8_t__shift_3_11: ; @test_int8_t__shift_3_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_0 ; -- Begin function test_int8_t__shift_4_0 .p2align 2 _test_int8_t__shift_4_0: ; @test_int8_t__shift_4_0 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_1 ; -- Begin function test_int8_t__shift_4_1 .p2align 2 _test_int8_t__shift_4_1: ; @test_int8_t__shift_4_1 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_2 ; -- Begin function test_int8_t__shift_4_2 .p2align 2 _test_int8_t__shift_4_2: ; @test_int8_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_3 ; -- Begin function test_int8_t__shift_4_3 .p2align 2 _test_int8_t__shift_4_3: ; @test_int8_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_4 ; -- Begin function test_int8_t__shift_4_4 .p2align 2 _test_int8_t__shift_4_4: ; @test_int8_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_5 ; -- Begin function test_int8_t__shift_4_5 .p2align 2 _test_int8_t__shift_4_5: ; @test_int8_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_6 ; -- Begin function test_int8_t__shift_4_6 .p2align 2 _test_int8_t__shift_4_6: ; @test_int8_t__shift_4_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_7 ; -- Begin function test_int8_t__shift_4_7 .p2align 2 _test_int8_t__shift_4_7: ; @test_int8_t__shift_4_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_8 ; -- Begin function test_int8_t__shift_4_8 .p2align 2 _test_int8_t__shift_4_8: ; @test_int8_t__shift_4_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_9 ; -- Begin function test_int8_t__shift_4_9 .p2align 2 _test_int8_t__shift_4_9: ; @test_int8_t__shift_4_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_10 ; -- Begin function test_int8_t__shift_4_10 .p2align 2 _test_int8_t__shift_4_10: ; @test_int8_t__shift_4_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_4_11 ; -- Begin function test_int8_t__shift_4_11 .p2align 2 _test_int8_t__shift_4_11: ; @test_int8_t__shift_4_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_0 ; -- Begin function test_int8_t__shift_5_0 .p2align 2 _test_int8_t__shift_5_0: ; @test_int8_t__shift_5_0 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_1 ; -- Begin function test_int8_t__shift_5_1 .p2align 2 _test_int8_t__shift_5_1: ; @test_int8_t__shift_5_1 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_2 ; -- Begin function test_int8_t__shift_5_2 .p2align 2 _test_int8_t__shift_5_2: ; @test_int8_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_3 ; -- Begin function test_int8_t__shift_5_3 .p2align 2 _test_int8_t__shift_5_3: ; @test_int8_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_4 ; -- Begin function test_int8_t__shift_5_4 .p2align 2 _test_int8_t__shift_5_4: ; @test_int8_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_5 ; -- Begin function test_int8_t__shift_5_5 .p2align 2 _test_int8_t__shift_5_5: ; @test_int8_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_6 ; -- Begin function test_int8_t__shift_5_6 .p2align 2 _test_int8_t__shift_5_6: ; @test_int8_t__shift_5_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_7 ; -- Begin function test_int8_t__shift_5_7 .p2align 2 _test_int8_t__shift_5_7: ; @test_int8_t__shift_5_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_8 ; -- Begin function test_int8_t__shift_5_8 .p2align 2 _test_int8_t__shift_5_8: ; @test_int8_t__shift_5_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_9 ; -- Begin function test_int8_t__shift_5_9 .p2align 2 _test_int8_t__shift_5_9: ; @test_int8_t__shift_5_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_10 ; -- Begin function test_int8_t__shift_5_10 .p2align 2 _test_int8_t__shift_5_10: ; @test_int8_t__shift_5_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_5_11 ; -- Begin function test_int8_t__shift_5_11 .p2align 2 _test_int8_t__shift_5_11: ; @test_int8_t__shift_5_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_0 ; -- Begin function test_int8_t__shift_6_0 .p2align 2 _test_int8_t__shift_6_0: ; @test_int8_t__shift_6_0 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_1 ; -- Begin function test_int8_t__shift_6_1 .p2align 2 _test_int8_t__shift_6_1: ; @test_int8_t__shift_6_1 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_2 ; -- Begin function test_int8_t__shift_6_2 .p2align 2 _test_int8_t__shift_6_2: ; @test_int8_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_3 ; -- Begin function test_int8_t__shift_6_3 .p2align 2 _test_int8_t__shift_6_3: ; @test_int8_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_4 ; -- Begin function test_int8_t__shift_6_4 .p2align 2 _test_int8_t__shift_6_4: ; @test_int8_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_5 ; -- Begin function test_int8_t__shift_6_5 .p2align 2 _test_int8_t__shift_6_5: ; @test_int8_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_6 ; -- Begin function test_int8_t__shift_6_6 .p2align 2 _test_int8_t__shift_6_6: ; @test_int8_t__shift_6_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_7 ; -- Begin function test_int8_t__shift_6_7 .p2align 2 _test_int8_t__shift_6_7: ; @test_int8_t__shift_6_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_8 ; -- Begin function test_int8_t__shift_6_8 .p2align 2 _test_int8_t__shift_6_8: ; @test_int8_t__shift_6_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_9 ; -- Begin function test_int8_t__shift_6_9 .p2align 2 _test_int8_t__shift_6_9: ; @test_int8_t__shift_6_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_10 ; -- Begin function test_int8_t__shift_6_10 .p2align 2 _test_int8_t__shift_6_10: ; @test_int8_t__shift_6_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_6_11 ; -- Begin function test_int8_t__shift_6_11 .p2align 2 _test_int8_t__shift_6_11: ; @test_int8_t__shift_6_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_0 ; -- Begin function test_int8_t__shift_7_0 .p2align 2 _test_int8_t__shift_7_0: ; @test_int8_t__shift_7_0 .cfi_startproc ; %bb.0: mov w8, #-40 mov w9, #-10 cmp w0, #0 csel w0, w9, w8, lt ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_1 ; -- Begin function test_int8_t__shift_7_1 .p2align 2 _test_int8_t__shift_7_1: ; @test_int8_t__shift_7_1 .cfi_startproc ; %bb.0: mov w8, #-40 mov w9, #-10 cmp w0, #0 csel w0, w9, w8, ge ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_2 ; -- Begin function test_int8_t__shift_7_2 .p2align 2 _test_int8_t__shift_7_2: ; @test_int8_t__shift_7_2 .cfi_startproc ; %bb.0: mvn w8, w0 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_3 ; -- Begin function test_int8_t__shift_7_3 .p2align 2 _test_int8_t__shift_7_3: ; @test_int8_t__shift_7_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_4 ; -- Begin function test_int8_t__shift_7_4 .p2align 2 _test_int8_t__shift_7_4: ; @test_int8_t__shift_7_4 .cfi_startproc ; %bb.0: mvn w8, w0 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_5 ; -- Begin function test_int8_t__shift_7_5 .p2align 2 _test_int8_t__shift_7_5: ; @test_int8_t__shift_7_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_6 ; -- Begin function test_int8_t__shift_7_6 .p2align 2 _test_int8_t__shift_7_6: ; @test_int8_t__shift_7_6 .cfi_startproc ; %bb.0: ldrsb w8, [x0] mov w9, #-40 mov w10, #-10 cmp w8, #0 csel w0, w10, w9, lt ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_7 ; -- Begin function test_int8_t__shift_7_7 .p2align 2 _test_int8_t__shift_7_7: ; @test_int8_t__shift_7_7 .cfi_startproc ; %bb.0: ldrsb w8, [x0] mov w9, #-40 mov w10, #-10 cmp w8, #0 csel w0, w10, w9, ge ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_8 ; -- Begin function test_int8_t__shift_7_8 .p2align 2 _test_int8_t__shift_7_8: ; @test_int8_t__shift_7_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_9 ; -- Begin function test_int8_t__shift_7_9 .p2align 2 _test_int8_t__shift_7_9: ; @test_int8_t__shift_7_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] lsr w0, w8, #7 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_10 ; -- Begin function test_int8_t__shift_7_10 .p2align 2 _test_int8_t__shift_7_10: ; @test_int8_t__shift_7_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int8_t__shift_7_11 ; -- Begin function test_int8_t__shift_7_11 .p2align 2 _test_int8_t__shift_7_11: ; @test_int8_t__shift_7_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] lsr w0, w8, #7 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_0 ; -- Begin function test_uint8_t__shift_0_0 .p2align 2 _test_uint8_t__shift_0_0: ; @test_uint8_t__shift_0_0 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_1 ; -- Begin function test_uint8_t__shift_0_1 .p2align 2 _test_uint8_t__shift_0_1: ; @test_uint8_t__shift_0_1 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_2 ; -- Begin function test_uint8_t__shift_0_2 .p2align 2 _test_uint8_t__shift_0_2: ; @test_uint8_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_3 ; -- Begin function test_uint8_t__shift_0_3 .p2align 2 _test_uint8_t__shift_0_3: ; @test_uint8_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_4 ; -- Begin function test_uint8_t__shift_0_4 .p2align 2 _test_uint8_t__shift_0_4: ; @test_uint8_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_5 ; -- Begin function test_uint8_t__shift_0_5 .p2align 2 _test_uint8_t__shift_0_5: ; @test_uint8_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_6 ; -- Begin function test_uint8_t__shift_0_6 .p2align 2 _test_uint8_t__shift_0_6: ; @test_uint8_t__shift_0_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_7 ; -- Begin function test_uint8_t__shift_0_7 .p2align 2 _test_uint8_t__shift_0_7: ; @test_uint8_t__shift_0_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_8 ; -- Begin function test_uint8_t__shift_0_8 .p2align 2 _test_uint8_t__shift_0_8: ; @test_uint8_t__shift_0_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_9 ; -- Begin function test_uint8_t__shift_0_9 .p2align 2 _test_uint8_t__shift_0_9: ; @test_uint8_t__shift_0_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_10 ; -- Begin function test_uint8_t__shift_0_10 .p2align 2 _test_uint8_t__shift_0_10: ; @test_uint8_t__shift_0_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_0_11 ; -- Begin function test_uint8_t__shift_0_11 .p2align 2 _test_uint8_t__shift_0_11: ; @test_uint8_t__shift_0_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_0 ; -- Begin function test_uint8_t__shift_1_0 .p2align 2 _test_uint8_t__shift_1_0: ; @test_uint8_t__shift_1_0 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_1 ; -- Begin function test_uint8_t__shift_1_1 .p2align 2 _test_uint8_t__shift_1_1: ; @test_uint8_t__shift_1_1 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_2 ; -- Begin function test_uint8_t__shift_1_2 .p2align 2 _test_uint8_t__shift_1_2: ; @test_uint8_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_3 ; -- Begin function test_uint8_t__shift_1_3 .p2align 2 _test_uint8_t__shift_1_3: ; @test_uint8_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_4 ; -- Begin function test_uint8_t__shift_1_4 .p2align 2 _test_uint8_t__shift_1_4: ; @test_uint8_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_5 ; -- Begin function test_uint8_t__shift_1_5 .p2align 2 _test_uint8_t__shift_1_5: ; @test_uint8_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_6 ; -- Begin function test_uint8_t__shift_1_6 .p2align 2 _test_uint8_t__shift_1_6: ; @test_uint8_t__shift_1_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_7 ; -- Begin function test_uint8_t__shift_1_7 .p2align 2 _test_uint8_t__shift_1_7: ; @test_uint8_t__shift_1_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_8 ; -- Begin function test_uint8_t__shift_1_8 .p2align 2 _test_uint8_t__shift_1_8: ; @test_uint8_t__shift_1_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_9 ; -- Begin function test_uint8_t__shift_1_9 .p2align 2 _test_uint8_t__shift_1_9: ; @test_uint8_t__shift_1_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_10 ; -- Begin function test_uint8_t__shift_1_10 .p2align 2 _test_uint8_t__shift_1_10: ; @test_uint8_t__shift_1_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_1_11 ; -- Begin function test_uint8_t__shift_1_11 .p2align 2 _test_uint8_t__shift_1_11: ; @test_uint8_t__shift_1_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_0 ; -- Begin function test_uint8_t__shift_2_0 .p2align 2 _test_uint8_t__shift_2_0: ; @test_uint8_t__shift_2_0 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_1 ; -- Begin function test_uint8_t__shift_2_1 .p2align 2 _test_uint8_t__shift_2_1: ; @test_uint8_t__shift_2_1 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_2 ; -- Begin function test_uint8_t__shift_2_2 .p2align 2 _test_uint8_t__shift_2_2: ; @test_uint8_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_3 ; -- Begin function test_uint8_t__shift_2_3 .p2align 2 _test_uint8_t__shift_2_3: ; @test_uint8_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_4 ; -- Begin function test_uint8_t__shift_2_4 .p2align 2 _test_uint8_t__shift_2_4: ; @test_uint8_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_5 ; -- Begin function test_uint8_t__shift_2_5 .p2align 2 _test_uint8_t__shift_2_5: ; @test_uint8_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_6 ; -- Begin function test_uint8_t__shift_2_6 .p2align 2 _test_uint8_t__shift_2_6: ; @test_uint8_t__shift_2_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_7 ; -- Begin function test_uint8_t__shift_2_7 .p2align 2 _test_uint8_t__shift_2_7: ; @test_uint8_t__shift_2_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_8 ; -- Begin function test_uint8_t__shift_2_8 .p2align 2 _test_uint8_t__shift_2_8: ; @test_uint8_t__shift_2_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_9 ; -- Begin function test_uint8_t__shift_2_9 .p2align 2 _test_uint8_t__shift_2_9: ; @test_uint8_t__shift_2_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_10 ; -- Begin function test_uint8_t__shift_2_10 .p2align 2 _test_uint8_t__shift_2_10: ; @test_uint8_t__shift_2_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_2_11 ; -- Begin function test_uint8_t__shift_2_11 .p2align 2 _test_uint8_t__shift_2_11: ; @test_uint8_t__shift_2_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_0 ; -- Begin function test_uint8_t__shift_3_0 .p2align 2 _test_uint8_t__shift_3_0: ; @test_uint8_t__shift_3_0 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_1 ; -- Begin function test_uint8_t__shift_3_1 .p2align 2 _test_uint8_t__shift_3_1: ; @test_uint8_t__shift_3_1 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_2 ; -- Begin function test_uint8_t__shift_3_2 .p2align 2 _test_uint8_t__shift_3_2: ; @test_uint8_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_3 ; -- Begin function test_uint8_t__shift_3_3 .p2align 2 _test_uint8_t__shift_3_3: ; @test_uint8_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_4 ; -- Begin function test_uint8_t__shift_3_4 .p2align 2 _test_uint8_t__shift_3_4: ; @test_uint8_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_5 ; -- Begin function test_uint8_t__shift_3_5 .p2align 2 _test_uint8_t__shift_3_5: ; @test_uint8_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_6 ; -- Begin function test_uint8_t__shift_3_6 .p2align 2 _test_uint8_t__shift_3_6: ; @test_uint8_t__shift_3_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_7 ; -- Begin function test_uint8_t__shift_3_7 .p2align 2 _test_uint8_t__shift_3_7: ; @test_uint8_t__shift_3_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_8 ; -- Begin function test_uint8_t__shift_3_8 .p2align 2 _test_uint8_t__shift_3_8: ; @test_uint8_t__shift_3_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_9 ; -- Begin function test_uint8_t__shift_3_9 .p2align 2 _test_uint8_t__shift_3_9: ; @test_uint8_t__shift_3_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_10 ; -- Begin function test_uint8_t__shift_3_10 .p2align 2 _test_uint8_t__shift_3_10: ; @test_uint8_t__shift_3_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_3_11 ; -- Begin function test_uint8_t__shift_3_11 .p2align 2 _test_uint8_t__shift_3_11: ; @test_uint8_t__shift_3_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_0 ; -- Begin function test_uint8_t__shift_4_0 .p2align 2 _test_uint8_t__shift_4_0: ; @test_uint8_t__shift_4_0 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_1 ; -- Begin function test_uint8_t__shift_4_1 .p2align 2 _test_uint8_t__shift_4_1: ; @test_uint8_t__shift_4_1 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_2 ; -- Begin function test_uint8_t__shift_4_2 .p2align 2 _test_uint8_t__shift_4_2: ; @test_uint8_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_3 ; -- Begin function test_uint8_t__shift_4_3 .p2align 2 _test_uint8_t__shift_4_3: ; @test_uint8_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_4 ; -- Begin function test_uint8_t__shift_4_4 .p2align 2 _test_uint8_t__shift_4_4: ; @test_uint8_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_5 ; -- Begin function test_uint8_t__shift_4_5 .p2align 2 _test_uint8_t__shift_4_5: ; @test_uint8_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_6 ; -- Begin function test_uint8_t__shift_4_6 .p2align 2 _test_uint8_t__shift_4_6: ; @test_uint8_t__shift_4_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_7 ; -- Begin function test_uint8_t__shift_4_7 .p2align 2 _test_uint8_t__shift_4_7: ; @test_uint8_t__shift_4_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_8 ; -- Begin function test_uint8_t__shift_4_8 .p2align 2 _test_uint8_t__shift_4_8: ; @test_uint8_t__shift_4_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_9 ; -- Begin function test_uint8_t__shift_4_9 .p2align 2 _test_uint8_t__shift_4_9: ; @test_uint8_t__shift_4_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_10 ; -- Begin function test_uint8_t__shift_4_10 .p2align 2 _test_uint8_t__shift_4_10: ; @test_uint8_t__shift_4_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_4_11 ; -- Begin function test_uint8_t__shift_4_11 .p2align 2 _test_uint8_t__shift_4_11: ; @test_uint8_t__shift_4_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_0 ; -- Begin function test_uint8_t__shift_5_0 .p2align 2 _test_uint8_t__shift_5_0: ; @test_uint8_t__shift_5_0 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_1 ; -- Begin function test_uint8_t__shift_5_1 .p2align 2 _test_uint8_t__shift_5_1: ; @test_uint8_t__shift_5_1 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_2 ; -- Begin function test_uint8_t__shift_5_2 .p2align 2 _test_uint8_t__shift_5_2: ; @test_uint8_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_3 ; -- Begin function test_uint8_t__shift_5_3 .p2align 2 _test_uint8_t__shift_5_3: ; @test_uint8_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_4 ; -- Begin function test_uint8_t__shift_5_4 .p2align 2 _test_uint8_t__shift_5_4: ; @test_uint8_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_5 ; -- Begin function test_uint8_t__shift_5_5 .p2align 2 _test_uint8_t__shift_5_5: ; @test_uint8_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_6 ; -- Begin function test_uint8_t__shift_5_6 .p2align 2 _test_uint8_t__shift_5_6: ; @test_uint8_t__shift_5_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_7 ; -- Begin function test_uint8_t__shift_5_7 .p2align 2 _test_uint8_t__shift_5_7: ; @test_uint8_t__shift_5_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_8 ; -- Begin function test_uint8_t__shift_5_8 .p2align 2 _test_uint8_t__shift_5_8: ; @test_uint8_t__shift_5_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_9 ; -- Begin function test_uint8_t__shift_5_9 .p2align 2 _test_uint8_t__shift_5_9: ; @test_uint8_t__shift_5_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_10 ; -- Begin function test_uint8_t__shift_5_10 .p2align 2 _test_uint8_t__shift_5_10: ; @test_uint8_t__shift_5_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_5_11 ; -- Begin function test_uint8_t__shift_5_11 .p2align 2 _test_uint8_t__shift_5_11: ; @test_uint8_t__shift_5_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_0 ; -- Begin function test_uint8_t__shift_6_0 .p2align 2 _test_uint8_t__shift_6_0: ; @test_uint8_t__shift_6_0 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_1 ; -- Begin function test_uint8_t__shift_6_1 .p2align 2 _test_uint8_t__shift_6_1: ; @test_uint8_t__shift_6_1 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_2 ; -- Begin function test_uint8_t__shift_6_2 .p2align 2 _test_uint8_t__shift_6_2: ; @test_uint8_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_3 ; -- Begin function test_uint8_t__shift_6_3 .p2align 2 _test_uint8_t__shift_6_3: ; @test_uint8_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_4 ; -- Begin function test_uint8_t__shift_6_4 .p2align 2 _test_uint8_t__shift_6_4: ; @test_uint8_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_5 ; -- Begin function test_uint8_t__shift_6_5 .p2align 2 _test_uint8_t__shift_6_5: ; @test_uint8_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_6 ; -- Begin function test_uint8_t__shift_6_6 .p2align 2 _test_uint8_t__shift_6_6: ; @test_uint8_t__shift_6_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_7 ; -- Begin function test_uint8_t__shift_6_7 .p2align 2 _test_uint8_t__shift_6_7: ; @test_uint8_t__shift_6_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_8 ; -- Begin function test_uint8_t__shift_6_8 .p2align 2 _test_uint8_t__shift_6_8: ; @test_uint8_t__shift_6_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_9 ; -- Begin function test_uint8_t__shift_6_9 .p2align 2 _test_uint8_t__shift_6_9: ; @test_uint8_t__shift_6_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_10 ; -- Begin function test_uint8_t__shift_6_10 .p2align 2 _test_uint8_t__shift_6_10: ; @test_uint8_t__shift_6_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_6_11 ; -- Begin function test_uint8_t__shift_6_11 .p2align 2 _test_uint8_t__shift_6_11: ; @test_uint8_t__shift_6_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_0 ; -- Begin function test_uint8_t__shift_7_0 .p2align 2 _test_uint8_t__shift_7_0: ; @test_uint8_t__shift_7_0 .cfi_startproc ; %bb.0: sxtb w8, w0 mov w9, #-40 mov w10, #-10 cmp w8, #0 csel w0, w10, w9, lt ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_1 ; -- Begin function test_uint8_t__shift_7_1 .p2align 2 _test_uint8_t__shift_7_1: ; @test_uint8_t__shift_7_1 .cfi_startproc ; %bb.0: sxtb w8, w0 mov w9, #-40 mov w10, #-10 cmp w8, #0 csel w0, w10, w9, ge ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_2 ; -- Begin function test_uint8_t__shift_7_2 .p2align 2 _test_uint8_t__shift_7_2: ; @test_uint8_t__shift_7_2 .cfi_startproc ; %bb.0: mvn w8, w0 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_3 ; -- Begin function test_uint8_t__shift_7_3 .p2align 2 _test_uint8_t__shift_7_3: ; @test_uint8_t__shift_7_3 .cfi_startproc ; %bb.0: lsr w0, w0, #7 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_4 ; -- Begin function test_uint8_t__shift_7_4 .p2align 2 _test_uint8_t__shift_7_4: ; @test_uint8_t__shift_7_4 .cfi_startproc ; %bb.0: mvn w8, w0 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_5 ; -- Begin function test_uint8_t__shift_7_5 .p2align 2 _test_uint8_t__shift_7_5: ; @test_uint8_t__shift_7_5 .cfi_startproc ; %bb.0: lsr w0, w0, #7 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_6 ; -- Begin function test_uint8_t__shift_7_6 .p2align 2 _test_uint8_t__shift_7_6: ; @test_uint8_t__shift_7_6 .cfi_startproc ; %bb.0: ldrsb w8, [x0] mov w9, #-40 mov w10, #-10 cmp w8, #0 csel w0, w10, w9, lt ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_7 ; -- Begin function test_uint8_t__shift_7_7 .p2align 2 _test_uint8_t__shift_7_7: ; @test_uint8_t__shift_7_7 .cfi_startproc ; %bb.0: ldrsb w8, [x0] mov w9, #-40 mov w10, #-10 cmp w8, #0 csel w0, w10, w9, ge ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_8 ; -- Begin function test_uint8_t__shift_7_8 .p2align 2 _test_uint8_t__shift_7_8: ; @test_uint8_t__shift_7_8 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_9 ; -- Begin function test_uint8_t__shift_7_9 .p2align 2 _test_uint8_t__shift_7_9: ; @test_uint8_t__shift_7_9 .cfi_startproc ; %bb.0: ldrb w8, [x0] lsr w0, w8, #7 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_10 ; -- Begin function test_uint8_t__shift_7_10 .p2align 2 _test_uint8_t__shift_7_10: ; @test_uint8_t__shift_7_10 .cfi_startproc ; %bb.0: ldrb w8, [x0] mvn w8, w8 ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint8_t__shift_7_11 ; -- Begin function test_uint8_t__shift_7_11 .p2align 2 _test_uint8_t__shift_7_11: ; @test_uint8_t__shift_7_11 .cfi_startproc ; %bb.0: ldrb w8, [x0] lsr w0, w8, #7 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_0 ; -- Begin function test_int16_t__shift_0_0 .p2align 2 _test_int16_t__shift_0_0: ; @test_int16_t__shift_0_0 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_1 ; -- Begin function test_int16_t__shift_0_1 .p2align 2 _test_int16_t__shift_0_1: ; @test_int16_t__shift_0_1 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_2 ; -- Begin function test_int16_t__shift_0_2 .p2align 2 _test_int16_t__shift_0_2: ; @test_int16_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_3 ; -- Begin function test_int16_t__shift_0_3 .p2align 2 _test_int16_t__shift_0_3: ; @test_int16_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_4 ; -- Begin function test_int16_t__shift_0_4 .p2align 2 _test_int16_t__shift_0_4: ; @test_int16_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_5 ; -- Begin function test_int16_t__shift_0_5 .p2align 2 _test_int16_t__shift_0_5: ; @test_int16_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_6 ; -- Begin function test_int16_t__shift_0_6 .p2align 2 _test_int16_t__shift_0_6: ; @test_int16_t__shift_0_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_7 ; -- Begin function test_int16_t__shift_0_7 .p2align 2 _test_int16_t__shift_0_7: ; @test_int16_t__shift_0_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_8 ; -- Begin function test_int16_t__shift_0_8 .p2align 2 _test_int16_t__shift_0_8: ; @test_int16_t__shift_0_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_9 ; -- Begin function test_int16_t__shift_0_9 .p2align 2 _test_int16_t__shift_0_9: ; @test_int16_t__shift_0_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_10 ; -- Begin function test_int16_t__shift_0_10 .p2align 2 _test_int16_t__shift_0_10: ; @test_int16_t__shift_0_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_0_11 ; -- Begin function test_int16_t__shift_0_11 .p2align 2 _test_int16_t__shift_0_11: ; @test_int16_t__shift_0_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_0 ; -- Begin function test_int16_t__shift_1_0 .p2align 2 _test_int16_t__shift_1_0: ; @test_int16_t__shift_1_0 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_1 ; -- Begin function test_int16_t__shift_1_1 .p2align 2 _test_int16_t__shift_1_1: ; @test_int16_t__shift_1_1 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_2 ; -- Begin function test_int16_t__shift_1_2 .p2align 2 _test_int16_t__shift_1_2: ; @test_int16_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_3 ; -- Begin function test_int16_t__shift_1_3 .p2align 2 _test_int16_t__shift_1_3: ; @test_int16_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_4 ; -- Begin function test_int16_t__shift_1_4 .p2align 2 _test_int16_t__shift_1_4: ; @test_int16_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_5 ; -- Begin function test_int16_t__shift_1_5 .p2align 2 _test_int16_t__shift_1_5: ; @test_int16_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_6 ; -- Begin function test_int16_t__shift_1_6 .p2align 2 _test_int16_t__shift_1_6: ; @test_int16_t__shift_1_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_7 ; -- Begin function test_int16_t__shift_1_7 .p2align 2 _test_int16_t__shift_1_7: ; @test_int16_t__shift_1_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_8 ; -- Begin function test_int16_t__shift_1_8 .p2align 2 _test_int16_t__shift_1_8: ; @test_int16_t__shift_1_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_9 ; -- Begin function test_int16_t__shift_1_9 .p2align 2 _test_int16_t__shift_1_9: ; @test_int16_t__shift_1_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_10 ; -- Begin function test_int16_t__shift_1_10 .p2align 2 _test_int16_t__shift_1_10: ; @test_int16_t__shift_1_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_1_11 ; -- Begin function test_int16_t__shift_1_11 .p2align 2 _test_int16_t__shift_1_11: ; @test_int16_t__shift_1_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_0 ; -- Begin function test_int16_t__shift_2_0 .p2align 2 _test_int16_t__shift_2_0: ; @test_int16_t__shift_2_0 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_1 ; -- Begin function test_int16_t__shift_2_1 .p2align 2 _test_int16_t__shift_2_1: ; @test_int16_t__shift_2_1 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_2 ; -- Begin function test_int16_t__shift_2_2 .p2align 2 _test_int16_t__shift_2_2: ; @test_int16_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_3 ; -- Begin function test_int16_t__shift_2_3 .p2align 2 _test_int16_t__shift_2_3: ; @test_int16_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_4 ; -- Begin function test_int16_t__shift_2_4 .p2align 2 _test_int16_t__shift_2_4: ; @test_int16_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_5 ; -- Begin function test_int16_t__shift_2_5 .p2align 2 _test_int16_t__shift_2_5: ; @test_int16_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_6 ; -- Begin function test_int16_t__shift_2_6 .p2align 2 _test_int16_t__shift_2_6: ; @test_int16_t__shift_2_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_7 ; -- Begin function test_int16_t__shift_2_7 .p2align 2 _test_int16_t__shift_2_7: ; @test_int16_t__shift_2_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_8 ; -- Begin function test_int16_t__shift_2_8 .p2align 2 _test_int16_t__shift_2_8: ; @test_int16_t__shift_2_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_9 ; -- Begin function test_int16_t__shift_2_9 .p2align 2 _test_int16_t__shift_2_9: ; @test_int16_t__shift_2_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_10 ; -- Begin function test_int16_t__shift_2_10 .p2align 2 _test_int16_t__shift_2_10: ; @test_int16_t__shift_2_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_2_11 ; -- Begin function test_int16_t__shift_2_11 .p2align 2 _test_int16_t__shift_2_11: ; @test_int16_t__shift_2_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_0 ; -- Begin function test_int16_t__shift_3_0 .p2align 2 _test_int16_t__shift_3_0: ; @test_int16_t__shift_3_0 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_1 ; -- Begin function test_int16_t__shift_3_1 .p2align 2 _test_int16_t__shift_3_1: ; @test_int16_t__shift_3_1 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_2 ; -- Begin function test_int16_t__shift_3_2 .p2align 2 _test_int16_t__shift_3_2: ; @test_int16_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_3 ; -- Begin function test_int16_t__shift_3_3 .p2align 2 _test_int16_t__shift_3_3: ; @test_int16_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_4 ; -- Begin function test_int16_t__shift_3_4 .p2align 2 _test_int16_t__shift_3_4: ; @test_int16_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_5 ; -- Begin function test_int16_t__shift_3_5 .p2align 2 _test_int16_t__shift_3_5: ; @test_int16_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_6 ; -- Begin function test_int16_t__shift_3_6 .p2align 2 _test_int16_t__shift_3_6: ; @test_int16_t__shift_3_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_7 ; -- Begin function test_int16_t__shift_3_7 .p2align 2 _test_int16_t__shift_3_7: ; @test_int16_t__shift_3_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_8 ; -- Begin function test_int16_t__shift_3_8 .p2align 2 _test_int16_t__shift_3_8: ; @test_int16_t__shift_3_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_9 ; -- Begin function test_int16_t__shift_3_9 .p2align 2 _test_int16_t__shift_3_9: ; @test_int16_t__shift_3_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_10 ; -- Begin function test_int16_t__shift_3_10 .p2align 2 _test_int16_t__shift_3_10: ; @test_int16_t__shift_3_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_3_11 ; -- Begin function test_int16_t__shift_3_11 .p2align 2 _test_int16_t__shift_3_11: ; @test_int16_t__shift_3_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_0 ; -- Begin function test_int16_t__shift_4_0 .p2align 2 _test_int16_t__shift_4_0: ; @test_int16_t__shift_4_0 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_1 ; -- Begin function test_int16_t__shift_4_1 .p2align 2 _test_int16_t__shift_4_1: ; @test_int16_t__shift_4_1 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_2 ; -- Begin function test_int16_t__shift_4_2 .p2align 2 _test_int16_t__shift_4_2: ; @test_int16_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_3 ; -- Begin function test_int16_t__shift_4_3 .p2align 2 _test_int16_t__shift_4_3: ; @test_int16_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_4 ; -- Begin function test_int16_t__shift_4_4 .p2align 2 _test_int16_t__shift_4_4: ; @test_int16_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_5 ; -- Begin function test_int16_t__shift_4_5 .p2align 2 _test_int16_t__shift_4_5: ; @test_int16_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_6 ; -- Begin function test_int16_t__shift_4_6 .p2align 2 _test_int16_t__shift_4_6: ; @test_int16_t__shift_4_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_7 ; -- Begin function test_int16_t__shift_4_7 .p2align 2 _test_int16_t__shift_4_7: ; @test_int16_t__shift_4_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_8 ; -- Begin function test_int16_t__shift_4_8 .p2align 2 _test_int16_t__shift_4_8: ; @test_int16_t__shift_4_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_9 ; -- Begin function test_int16_t__shift_4_9 .p2align 2 _test_int16_t__shift_4_9: ; @test_int16_t__shift_4_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_10 ; -- Begin function test_int16_t__shift_4_10 .p2align 2 _test_int16_t__shift_4_10: ; @test_int16_t__shift_4_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_4_11 ; -- Begin function test_int16_t__shift_4_11 .p2align 2 _test_int16_t__shift_4_11: ; @test_int16_t__shift_4_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_0 ; -- Begin function test_int16_t__shift_5_0 .p2align 2 _test_int16_t__shift_5_0: ; @test_int16_t__shift_5_0 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_1 ; -- Begin function test_int16_t__shift_5_1 .p2align 2 _test_int16_t__shift_5_1: ; @test_int16_t__shift_5_1 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_2 ; -- Begin function test_int16_t__shift_5_2 .p2align 2 _test_int16_t__shift_5_2: ; @test_int16_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_3 ; -- Begin function test_int16_t__shift_5_3 .p2align 2 _test_int16_t__shift_5_3: ; @test_int16_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_4 ; -- Begin function test_int16_t__shift_5_4 .p2align 2 _test_int16_t__shift_5_4: ; @test_int16_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_5 ; -- Begin function test_int16_t__shift_5_5 .p2align 2 _test_int16_t__shift_5_5: ; @test_int16_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_6 ; -- Begin function test_int16_t__shift_5_6 .p2align 2 _test_int16_t__shift_5_6: ; @test_int16_t__shift_5_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_7 ; -- Begin function test_int16_t__shift_5_7 .p2align 2 _test_int16_t__shift_5_7: ; @test_int16_t__shift_5_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_8 ; -- Begin function test_int16_t__shift_5_8 .p2align 2 _test_int16_t__shift_5_8: ; @test_int16_t__shift_5_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_9 ; -- Begin function test_int16_t__shift_5_9 .p2align 2 _test_int16_t__shift_5_9: ; @test_int16_t__shift_5_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_10 ; -- Begin function test_int16_t__shift_5_10 .p2align 2 _test_int16_t__shift_5_10: ; @test_int16_t__shift_5_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_5_11 ; -- Begin function test_int16_t__shift_5_11 .p2align 2 _test_int16_t__shift_5_11: ; @test_int16_t__shift_5_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_0 ; -- Begin function test_int16_t__shift_6_0 .p2align 2 _test_int16_t__shift_6_0: ; @test_int16_t__shift_6_0 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_1 ; -- Begin function test_int16_t__shift_6_1 .p2align 2 _test_int16_t__shift_6_1: ; @test_int16_t__shift_6_1 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_2 ; -- Begin function test_int16_t__shift_6_2 .p2align 2 _test_int16_t__shift_6_2: ; @test_int16_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_3 ; -- Begin function test_int16_t__shift_6_3 .p2align 2 _test_int16_t__shift_6_3: ; @test_int16_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_4 ; -- Begin function test_int16_t__shift_6_4 .p2align 2 _test_int16_t__shift_6_4: ; @test_int16_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_5 ; -- Begin function test_int16_t__shift_6_5 .p2align 2 _test_int16_t__shift_6_5: ; @test_int16_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_6 ; -- Begin function test_int16_t__shift_6_6 .p2align 2 _test_int16_t__shift_6_6: ; @test_int16_t__shift_6_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_7 ; -- Begin function test_int16_t__shift_6_7 .p2align 2 _test_int16_t__shift_6_7: ; @test_int16_t__shift_6_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_8 ; -- Begin function test_int16_t__shift_6_8 .p2align 2 _test_int16_t__shift_6_8: ; @test_int16_t__shift_6_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_9 ; -- Begin function test_int16_t__shift_6_9 .p2align 2 _test_int16_t__shift_6_9: ; @test_int16_t__shift_6_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_10 ; -- Begin function test_int16_t__shift_6_10 .p2align 2 _test_int16_t__shift_6_10: ; @test_int16_t__shift_6_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_6_11 ; -- Begin function test_int16_t__shift_6_11 .p2align 2 _test_int16_t__shift_6_11: ; @test_int16_t__shift_6_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_0 ; -- Begin function test_int16_t__shift_7_0 .p2align 2 _test_int16_t__shift_7_0: ; @test_int16_t__shift_7_0 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_1 ; -- Begin function test_int16_t__shift_7_1 .p2align 2 _test_int16_t__shift_7_1: ; @test_int16_t__shift_7_1 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_2 ; -- Begin function test_int16_t__shift_7_2 .p2align 2 _test_int16_t__shift_7_2: ; @test_int16_t__shift_7_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_3 ; -- Begin function test_int16_t__shift_7_3 .p2align 2 _test_int16_t__shift_7_3: ; @test_int16_t__shift_7_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_4 ; -- Begin function test_int16_t__shift_7_4 .p2align 2 _test_int16_t__shift_7_4: ; @test_int16_t__shift_7_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_5 ; -- Begin function test_int16_t__shift_7_5 .p2align 2 _test_int16_t__shift_7_5: ; @test_int16_t__shift_7_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_6 ; -- Begin function test_int16_t__shift_7_6 .p2align 2 _test_int16_t__shift_7_6: ; @test_int16_t__shift_7_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_7 ; -- Begin function test_int16_t__shift_7_7 .p2align 2 _test_int16_t__shift_7_7: ; @test_int16_t__shift_7_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_8 ; -- Begin function test_int16_t__shift_7_8 .p2align 2 _test_int16_t__shift_7_8: ; @test_int16_t__shift_7_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_9 ; -- Begin function test_int16_t__shift_7_9 .p2align 2 _test_int16_t__shift_7_9: ; @test_int16_t__shift_7_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_10 ; -- Begin function test_int16_t__shift_7_10 .p2align 2 _test_int16_t__shift_7_10: ; @test_int16_t__shift_7_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int16_t__shift_7_11 ; -- Begin function test_int16_t__shift_7_11 .p2align 2 _test_int16_t__shift_7_11: ; @test_int16_t__shift_7_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_0 ; -- Begin function test_uint16_t__shift_0_0 .p2align 2 _test_uint16_t__shift_0_0: ; @test_uint16_t__shift_0_0 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_1 ; -- Begin function test_uint16_t__shift_0_1 .p2align 2 _test_uint16_t__shift_0_1: ; @test_uint16_t__shift_0_1 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_2 ; -- Begin function test_uint16_t__shift_0_2 .p2align 2 _test_uint16_t__shift_0_2: ; @test_uint16_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_3 ; -- Begin function test_uint16_t__shift_0_3 .p2align 2 _test_uint16_t__shift_0_3: ; @test_uint16_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_4 ; -- Begin function test_uint16_t__shift_0_4 .p2align 2 _test_uint16_t__shift_0_4: ; @test_uint16_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_5 ; -- Begin function test_uint16_t__shift_0_5 .p2align 2 _test_uint16_t__shift_0_5: ; @test_uint16_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_6 ; -- Begin function test_uint16_t__shift_0_6 .p2align 2 _test_uint16_t__shift_0_6: ; @test_uint16_t__shift_0_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_7 ; -- Begin function test_uint16_t__shift_0_7 .p2align 2 _test_uint16_t__shift_0_7: ; @test_uint16_t__shift_0_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_8 ; -- Begin function test_uint16_t__shift_0_8 .p2align 2 _test_uint16_t__shift_0_8: ; @test_uint16_t__shift_0_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_9 ; -- Begin function test_uint16_t__shift_0_9 .p2align 2 _test_uint16_t__shift_0_9: ; @test_uint16_t__shift_0_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_10 ; -- Begin function test_uint16_t__shift_0_10 .p2align 2 _test_uint16_t__shift_0_10: ; @test_uint16_t__shift_0_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_0_11 ; -- Begin function test_uint16_t__shift_0_11 .p2align 2 _test_uint16_t__shift_0_11: ; @test_uint16_t__shift_0_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_0 ; -- Begin function test_uint16_t__shift_1_0 .p2align 2 _test_uint16_t__shift_1_0: ; @test_uint16_t__shift_1_0 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_1 ; -- Begin function test_uint16_t__shift_1_1 .p2align 2 _test_uint16_t__shift_1_1: ; @test_uint16_t__shift_1_1 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_2 ; -- Begin function test_uint16_t__shift_1_2 .p2align 2 _test_uint16_t__shift_1_2: ; @test_uint16_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_3 ; -- Begin function test_uint16_t__shift_1_3 .p2align 2 _test_uint16_t__shift_1_3: ; @test_uint16_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_4 ; -- Begin function test_uint16_t__shift_1_4 .p2align 2 _test_uint16_t__shift_1_4: ; @test_uint16_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_5 ; -- Begin function test_uint16_t__shift_1_5 .p2align 2 _test_uint16_t__shift_1_5: ; @test_uint16_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_6 ; -- Begin function test_uint16_t__shift_1_6 .p2align 2 _test_uint16_t__shift_1_6: ; @test_uint16_t__shift_1_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_7 ; -- Begin function test_uint16_t__shift_1_7 .p2align 2 _test_uint16_t__shift_1_7: ; @test_uint16_t__shift_1_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_8 ; -- Begin function test_uint16_t__shift_1_8 .p2align 2 _test_uint16_t__shift_1_8: ; @test_uint16_t__shift_1_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_9 ; -- Begin function test_uint16_t__shift_1_9 .p2align 2 _test_uint16_t__shift_1_9: ; @test_uint16_t__shift_1_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_10 ; -- Begin function test_uint16_t__shift_1_10 .p2align 2 _test_uint16_t__shift_1_10: ; @test_uint16_t__shift_1_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_1_11 ; -- Begin function test_uint16_t__shift_1_11 .p2align 2 _test_uint16_t__shift_1_11: ; @test_uint16_t__shift_1_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_0 ; -- Begin function test_uint16_t__shift_2_0 .p2align 2 _test_uint16_t__shift_2_0: ; @test_uint16_t__shift_2_0 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_1 ; -- Begin function test_uint16_t__shift_2_1 .p2align 2 _test_uint16_t__shift_2_1: ; @test_uint16_t__shift_2_1 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_2 ; -- Begin function test_uint16_t__shift_2_2 .p2align 2 _test_uint16_t__shift_2_2: ; @test_uint16_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_3 ; -- Begin function test_uint16_t__shift_2_3 .p2align 2 _test_uint16_t__shift_2_3: ; @test_uint16_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_4 ; -- Begin function test_uint16_t__shift_2_4 .p2align 2 _test_uint16_t__shift_2_4: ; @test_uint16_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_5 ; -- Begin function test_uint16_t__shift_2_5 .p2align 2 _test_uint16_t__shift_2_5: ; @test_uint16_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_6 ; -- Begin function test_uint16_t__shift_2_6 .p2align 2 _test_uint16_t__shift_2_6: ; @test_uint16_t__shift_2_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_7 ; -- Begin function test_uint16_t__shift_2_7 .p2align 2 _test_uint16_t__shift_2_7: ; @test_uint16_t__shift_2_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_8 ; -- Begin function test_uint16_t__shift_2_8 .p2align 2 _test_uint16_t__shift_2_8: ; @test_uint16_t__shift_2_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_9 ; -- Begin function test_uint16_t__shift_2_9 .p2align 2 _test_uint16_t__shift_2_9: ; @test_uint16_t__shift_2_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_10 ; -- Begin function test_uint16_t__shift_2_10 .p2align 2 _test_uint16_t__shift_2_10: ; @test_uint16_t__shift_2_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_2_11 ; -- Begin function test_uint16_t__shift_2_11 .p2align 2 _test_uint16_t__shift_2_11: ; @test_uint16_t__shift_2_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_0 ; -- Begin function test_uint16_t__shift_3_0 .p2align 2 _test_uint16_t__shift_3_0: ; @test_uint16_t__shift_3_0 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_1 ; -- Begin function test_uint16_t__shift_3_1 .p2align 2 _test_uint16_t__shift_3_1: ; @test_uint16_t__shift_3_1 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_2 ; -- Begin function test_uint16_t__shift_3_2 .p2align 2 _test_uint16_t__shift_3_2: ; @test_uint16_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_3 ; -- Begin function test_uint16_t__shift_3_3 .p2align 2 _test_uint16_t__shift_3_3: ; @test_uint16_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_4 ; -- Begin function test_uint16_t__shift_3_4 .p2align 2 _test_uint16_t__shift_3_4: ; @test_uint16_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_5 ; -- Begin function test_uint16_t__shift_3_5 .p2align 2 _test_uint16_t__shift_3_5: ; @test_uint16_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_6 ; -- Begin function test_uint16_t__shift_3_6 .p2align 2 _test_uint16_t__shift_3_6: ; @test_uint16_t__shift_3_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_7 ; -- Begin function test_uint16_t__shift_3_7 .p2align 2 _test_uint16_t__shift_3_7: ; @test_uint16_t__shift_3_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_8 ; -- Begin function test_uint16_t__shift_3_8 .p2align 2 _test_uint16_t__shift_3_8: ; @test_uint16_t__shift_3_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_9 ; -- Begin function test_uint16_t__shift_3_9 .p2align 2 _test_uint16_t__shift_3_9: ; @test_uint16_t__shift_3_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_10 ; -- Begin function test_uint16_t__shift_3_10 .p2align 2 _test_uint16_t__shift_3_10: ; @test_uint16_t__shift_3_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_3_11 ; -- Begin function test_uint16_t__shift_3_11 .p2align 2 _test_uint16_t__shift_3_11: ; @test_uint16_t__shift_3_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_0 ; -- Begin function test_uint16_t__shift_4_0 .p2align 2 _test_uint16_t__shift_4_0: ; @test_uint16_t__shift_4_0 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_1 ; -- Begin function test_uint16_t__shift_4_1 .p2align 2 _test_uint16_t__shift_4_1: ; @test_uint16_t__shift_4_1 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_2 ; -- Begin function test_uint16_t__shift_4_2 .p2align 2 _test_uint16_t__shift_4_2: ; @test_uint16_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_3 ; -- Begin function test_uint16_t__shift_4_3 .p2align 2 _test_uint16_t__shift_4_3: ; @test_uint16_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_4 ; -- Begin function test_uint16_t__shift_4_4 .p2align 2 _test_uint16_t__shift_4_4: ; @test_uint16_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_5 ; -- Begin function test_uint16_t__shift_4_5 .p2align 2 _test_uint16_t__shift_4_5: ; @test_uint16_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_6 ; -- Begin function test_uint16_t__shift_4_6 .p2align 2 _test_uint16_t__shift_4_6: ; @test_uint16_t__shift_4_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_7 ; -- Begin function test_uint16_t__shift_4_7 .p2align 2 _test_uint16_t__shift_4_7: ; @test_uint16_t__shift_4_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_8 ; -- Begin function test_uint16_t__shift_4_8 .p2align 2 _test_uint16_t__shift_4_8: ; @test_uint16_t__shift_4_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_9 ; -- Begin function test_uint16_t__shift_4_9 .p2align 2 _test_uint16_t__shift_4_9: ; @test_uint16_t__shift_4_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_10 ; -- Begin function test_uint16_t__shift_4_10 .p2align 2 _test_uint16_t__shift_4_10: ; @test_uint16_t__shift_4_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_4_11 ; -- Begin function test_uint16_t__shift_4_11 .p2align 2 _test_uint16_t__shift_4_11: ; @test_uint16_t__shift_4_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_0 ; -- Begin function test_uint16_t__shift_5_0 .p2align 2 _test_uint16_t__shift_5_0: ; @test_uint16_t__shift_5_0 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_1 ; -- Begin function test_uint16_t__shift_5_1 .p2align 2 _test_uint16_t__shift_5_1: ; @test_uint16_t__shift_5_1 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_2 ; -- Begin function test_uint16_t__shift_5_2 .p2align 2 _test_uint16_t__shift_5_2: ; @test_uint16_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_3 ; -- Begin function test_uint16_t__shift_5_3 .p2align 2 _test_uint16_t__shift_5_3: ; @test_uint16_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_4 ; -- Begin function test_uint16_t__shift_5_4 .p2align 2 _test_uint16_t__shift_5_4: ; @test_uint16_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_5 ; -- Begin function test_uint16_t__shift_5_5 .p2align 2 _test_uint16_t__shift_5_5: ; @test_uint16_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_6 ; -- Begin function test_uint16_t__shift_5_6 .p2align 2 _test_uint16_t__shift_5_6: ; @test_uint16_t__shift_5_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_7 ; -- Begin function test_uint16_t__shift_5_7 .p2align 2 _test_uint16_t__shift_5_7: ; @test_uint16_t__shift_5_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_8 ; -- Begin function test_uint16_t__shift_5_8 .p2align 2 _test_uint16_t__shift_5_8: ; @test_uint16_t__shift_5_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_9 ; -- Begin function test_uint16_t__shift_5_9 .p2align 2 _test_uint16_t__shift_5_9: ; @test_uint16_t__shift_5_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_10 ; -- Begin function test_uint16_t__shift_5_10 .p2align 2 _test_uint16_t__shift_5_10: ; @test_uint16_t__shift_5_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_5_11 ; -- Begin function test_uint16_t__shift_5_11 .p2align 2 _test_uint16_t__shift_5_11: ; @test_uint16_t__shift_5_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_0 ; -- Begin function test_uint16_t__shift_6_0 .p2align 2 _test_uint16_t__shift_6_0: ; @test_uint16_t__shift_6_0 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_1 ; -- Begin function test_uint16_t__shift_6_1 .p2align 2 _test_uint16_t__shift_6_1: ; @test_uint16_t__shift_6_1 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_2 ; -- Begin function test_uint16_t__shift_6_2 .p2align 2 _test_uint16_t__shift_6_2: ; @test_uint16_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_3 ; -- Begin function test_uint16_t__shift_6_3 .p2align 2 _test_uint16_t__shift_6_3: ; @test_uint16_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_4 ; -- Begin function test_uint16_t__shift_6_4 .p2align 2 _test_uint16_t__shift_6_4: ; @test_uint16_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_5 ; -- Begin function test_uint16_t__shift_6_5 .p2align 2 _test_uint16_t__shift_6_5: ; @test_uint16_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_6 ; -- Begin function test_uint16_t__shift_6_6 .p2align 2 _test_uint16_t__shift_6_6: ; @test_uint16_t__shift_6_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_7 ; -- Begin function test_uint16_t__shift_6_7 .p2align 2 _test_uint16_t__shift_6_7: ; @test_uint16_t__shift_6_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_8 ; -- Begin function test_uint16_t__shift_6_8 .p2align 2 _test_uint16_t__shift_6_8: ; @test_uint16_t__shift_6_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_9 ; -- Begin function test_uint16_t__shift_6_9 .p2align 2 _test_uint16_t__shift_6_9: ; @test_uint16_t__shift_6_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_10 ; -- Begin function test_uint16_t__shift_6_10 .p2align 2 _test_uint16_t__shift_6_10: ; @test_uint16_t__shift_6_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_6_11 ; -- Begin function test_uint16_t__shift_6_11 .p2align 2 _test_uint16_t__shift_6_11: ; @test_uint16_t__shift_6_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_0 ; -- Begin function test_uint16_t__shift_7_0 .p2align 2 _test_uint16_t__shift_7_0: ; @test_uint16_t__shift_7_0 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_1 ; -- Begin function test_uint16_t__shift_7_1 .p2align 2 _test_uint16_t__shift_7_1: ; @test_uint16_t__shift_7_1 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_2 ; -- Begin function test_uint16_t__shift_7_2 .p2align 2 _test_uint16_t__shift_7_2: ; @test_uint16_t__shift_7_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_3 ; -- Begin function test_uint16_t__shift_7_3 .p2align 2 _test_uint16_t__shift_7_3: ; @test_uint16_t__shift_7_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_4 ; -- Begin function test_uint16_t__shift_7_4 .p2align 2 _test_uint16_t__shift_7_4: ; @test_uint16_t__shift_7_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_5 ; -- Begin function test_uint16_t__shift_7_5 .p2align 2 _test_uint16_t__shift_7_5: ; @test_uint16_t__shift_7_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_6 ; -- Begin function test_uint16_t__shift_7_6 .p2align 2 _test_uint16_t__shift_7_6: ; @test_uint16_t__shift_7_6 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_7 ; -- Begin function test_uint16_t__shift_7_7 .p2align 2 _test_uint16_t__shift_7_7: ; @test_uint16_t__shift_7_7 .cfi_startproc ; %bb.0: ldrh w8, [x0] tst w8, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_8 ; -- Begin function test_uint16_t__shift_7_8 .p2align 2 _test_uint16_t__shift_7_8: ; @test_uint16_t__shift_7_8 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_9 ; -- Begin function test_uint16_t__shift_7_9 .p2align 2 _test_uint16_t__shift_7_9: ; @test_uint16_t__shift_7_9 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_10 ; -- Begin function test_uint16_t__shift_7_10 .p2align 2 _test_uint16_t__shift_7_10: ; @test_uint16_t__shift_7_10 .cfi_startproc ; %bb.0: ldrh w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint16_t__shift_7_11 ; -- Begin function test_uint16_t__shift_7_11 .p2align 2 _test_uint16_t__shift_7_11: ; @test_uint16_t__shift_7_11 .cfi_startproc ; %bb.0: ldrh w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_0 ; -- Begin function test_int32_t__shift_0_0 .p2align 2 _test_int32_t__shift_0_0: ; @test_int32_t__shift_0_0 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_1 ; -- Begin function test_int32_t__shift_0_1 .p2align 2 _test_int32_t__shift_0_1: ; @test_int32_t__shift_0_1 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_2 ; -- Begin function test_int32_t__shift_0_2 .p2align 2 _test_int32_t__shift_0_2: ; @test_int32_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_3 ; -- Begin function test_int32_t__shift_0_3 .p2align 2 _test_int32_t__shift_0_3: ; @test_int32_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_4 ; -- Begin function test_int32_t__shift_0_4 .p2align 2 _test_int32_t__shift_0_4: ; @test_int32_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_5 ; -- Begin function test_int32_t__shift_0_5 .p2align 2 _test_int32_t__shift_0_5: ; @test_int32_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_6 ; -- Begin function test_int32_t__shift_0_6 .p2align 2 _test_int32_t__shift_0_6: ; @test_int32_t__shift_0_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_7 ; -- Begin function test_int32_t__shift_0_7 .p2align 2 _test_int32_t__shift_0_7: ; @test_int32_t__shift_0_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_8 ; -- Begin function test_int32_t__shift_0_8 .p2align 2 _test_int32_t__shift_0_8: ; @test_int32_t__shift_0_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_9 ; -- Begin function test_int32_t__shift_0_9 .p2align 2 _test_int32_t__shift_0_9: ; @test_int32_t__shift_0_9 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_10 ; -- Begin function test_int32_t__shift_0_10 .p2align 2 _test_int32_t__shift_0_10: ; @test_int32_t__shift_0_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_0_11 ; -- Begin function test_int32_t__shift_0_11 .p2align 2 _test_int32_t__shift_0_11: ; @test_int32_t__shift_0_11 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_0 ; -- Begin function test_int32_t__shift_1_0 .p2align 2 _test_int32_t__shift_1_0: ; @test_int32_t__shift_1_0 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_1 ; -- Begin function test_int32_t__shift_1_1 .p2align 2 _test_int32_t__shift_1_1: ; @test_int32_t__shift_1_1 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_2 ; -- Begin function test_int32_t__shift_1_2 .p2align 2 _test_int32_t__shift_1_2: ; @test_int32_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_3 ; -- Begin function test_int32_t__shift_1_3 .p2align 2 _test_int32_t__shift_1_3: ; @test_int32_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_4 ; -- Begin function test_int32_t__shift_1_4 .p2align 2 _test_int32_t__shift_1_4: ; @test_int32_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_5 ; -- Begin function test_int32_t__shift_1_5 .p2align 2 _test_int32_t__shift_1_5: ; @test_int32_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_6 ; -- Begin function test_int32_t__shift_1_6 .p2align 2 _test_int32_t__shift_1_6: ; @test_int32_t__shift_1_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_7 ; -- Begin function test_int32_t__shift_1_7 .p2align 2 _test_int32_t__shift_1_7: ; @test_int32_t__shift_1_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_8 ; -- Begin function test_int32_t__shift_1_8 .p2align 2 _test_int32_t__shift_1_8: ; @test_int32_t__shift_1_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_9 ; -- Begin function test_int32_t__shift_1_9 .p2align 2 _test_int32_t__shift_1_9: ; @test_int32_t__shift_1_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_10 ; -- Begin function test_int32_t__shift_1_10 .p2align 2 _test_int32_t__shift_1_10: ; @test_int32_t__shift_1_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_1_11 ; -- Begin function test_int32_t__shift_1_11 .p2align 2 _test_int32_t__shift_1_11: ; @test_int32_t__shift_1_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_0 ; -- Begin function test_int32_t__shift_2_0 .p2align 2 _test_int32_t__shift_2_0: ; @test_int32_t__shift_2_0 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_1 ; -- Begin function test_int32_t__shift_2_1 .p2align 2 _test_int32_t__shift_2_1: ; @test_int32_t__shift_2_1 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_2 ; -- Begin function test_int32_t__shift_2_2 .p2align 2 _test_int32_t__shift_2_2: ; @test_int32_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_3 ; -- Begin function test_int32_t__shift_2_3 .p2align 2 _test_int32_t__shift_2_3: ; @test_int32_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_4 ; -- Begin function test_int32_t__shift_2_4 .p2align 2 _test_int32_t__shift_2_4: ; @test_int32_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_5 ; -- Begin function test_int32_t__shift_2_5 .p2align 2 _test_int32_t__shift_2_5: ; @test_int32_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_6 ; -- Begin function test_int32_t__shift_2_6 .p2align 2 _test_int32_t__shift_2_6: ; @test_int32_t__shift_2_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_7 ; -- Begin function test_int32_t__shift_2_7 .p2align 2 _test_int32_t__shift_2_7: ; @test_int32_t__shift_2_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_8 ; -- Begin function test_int32_t__shift_2_8 .p2align 2 _test_int32_t__shift_2_8: ; @test_int32_t__shift_2_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_9 ; -- Begin function test_int32_t__shift_2_9 .p2align 2 _test_int32_t__shift_2_9: ; @test_int32_t__shift_2_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_10 ; -- Begin function test_int32_t__shift_2_10 .p2align 2 _test_int32_t__shift_2_10: ; @test_int32_t__shift_2_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_2_11 ; -- Begin function test_int32_t__shift_2_11 .p2align 2 _test_int32_t__shift_2_11: ; @test_int32_t__shift_2_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_0 ; -- Begin function test_int32_t__shift_3_0 .p2align 2 _test_int32_t__shift_3_0: ; @test_int32_t__shift_3_0 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_1 ; -- Begin function test_int32_t__shift_3_1 .p2align 2 _test_int32_t__shift_3_1: ; @test_int32_t__shift_3_1 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_2 ; -- Begin function test_int32_t__shift_3_2 .p2align 2 _test_int32_t__shift_3_2: ; @test_int32_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_3 ; -- Begin function test_int32_t__shift_3_3 .p2align 2 _test_int32_t__shift_3_3: ; @test_int32_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_4 ; -- Begin function test_int32_t__shift_3_4 .p2align 2 _test_int32_t__shift_3_4: ; @test_int32_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_5 ; -- Begin function test_int32_t__shift_3_5 .p2align 2 _test_int32_t__shift_3_5: ; @test_int32_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_6 ; -- Begin function test_int32_t__shift_3_6 .p2align 2 _test_int32_t__shift_3_6: ; @test_int32_t__shift_3_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_7 ; -- Begin function test_int32_t__shift_3_7 .p2align 2 _test_int32_t__shift_3_7: ; @test_int32_t__shift_3_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_8 ; -- Begin function test_int32_t__shift_3_8 .p2align 2 _test_int32_t__shift_3_8: ; @test_int32_t__shift_3_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_9 ; -- Begin function test_int32_t__shift_3_9 .p2align 2 _test_int32_t__shift_3_9: ; @test_int32_t__shift_3_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_10 ; -- Begin function test_int32_t__shift_3_10 .p2align 2 _test_int32_t__shift_3_10: ; @test_int32_t__shift_3_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_3_11 ; -- Begin function test_int32_t__shift_3_11 .p2align 2 _test_int32_t__shift_3_11: ; @test_int32_t__shift_3_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_0 ; -- Begin function test_int32_t__shift_4_0 .p2align 2 _test_int32_t__shift_4_0: ; @test_int32_t__shift_4_0 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_1 ; -- Begin function test_int32_t__shift_4_1 .p2align 2 _test_int32_t__shift_4_1: ; @test_int32_t__shift_4_1 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_2 ; -- Begin function test_int32_t__shift_4_2 .p2align 2 _test_int32_t__shift_4_2: ; @test_int32_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_3 ; -- Begin function test_int32_t__shift_4_3 .p2align 2 _test_int32_t__shift_4_3: ; @test_int32_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_4 ; -- Begin function test_int32_t__shift_4_4 .p2align 2 _test_int32_t__shift_4_4: ; @test_int32_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_5 ; -- Begin function test_int32_t__shift_4_5 .p2align 2 _test_int32_t__shift_4_5: ; @test_int32_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_6 ; -- Begin function test_int32_t__shift_4_6 .p2align 2 _test_int32_t__shift_4_6: ; @test_int32_t__shift_4_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_7 ; -- Begin function test_int32_t__shift_4_7 .p2align 2 _test_int32_t__shift_4_7: ; @test_int32_t__shift_4_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_8 ; -- Begin function test_int32_t__shift_4_8 .p2align 2 _test_int32_t__shift_4_8: ; @test_int32_t__shift_4_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_9 ; -- Begin function test_int32_t__shift_4_9 .p2align 2 _test_int32_t__shift_4_9: ; @test_int32_t__shift_4_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_10 ; -- Begin function test_int32_t__shift_4_10 .p2align 2 _test_int32_t__shift_4_10: ; @test_int32_t__shift_4_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_4_11 ; -- Begin function test_int32_t__shift_4_11 .p2align 2 _test_int32_t__shift_4_11: ; @test_int32_t__shift_4_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_0 ; -- Begin function test_int32_t__shift_5_0 .p2align 2 _test_int32_t__shift_5_0: ; @test_int32_t__shift_5_0 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_1 ; -- Begin function test_int32_t__shift_5_1 .p2align 2 _test_int32_t__shift_5_1: ; @test_int32_t__shift_5_1 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_2 ; -- Begin function test_int32_t__shift_5_2 .p2align 2 _test_int32_t__shift_5_2: ; @test_int32_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_3 ; -- Begin function test_int32_t__shift_5_3 .p2align 2 _test_int32_t__shift_5_3: ; @test_int32_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_4 ; -- Begin function test_int32_t__shift_5_4 .p2align 2 _test_int32_t__shift_5_4: ; @test_int32_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_5 ; -- Begin function test_int32_t__shift_5_5 .p2align 2 _test_int32_t__shift_5_5: ; @test_int32_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_6 ; -- Begin function test_int32_t__shift_5_6 .p2align 2 _test_int32_t__shift_5_6: ; @test_int32_t__shift_5_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_7 ; -- Begin function test_int32_t__shift_5_7 .p2align 2 _test_int32_t__shift_5_7: ; @test_int32_t__shift_5_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_8 ; -- Begin function test_int32_t__shift_5_8 .p2align 2 _test_int32_t__shift_5_8: ; @test_int32_t__shift_5_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_9 ; -- Begin function test_int32_t__shift_5_9 .p2align 2 _test_int32_t__shift_5_9: ; @test_int32_t__shift_5_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_10 ; -- Begin function test_int32_t__shift_5_10 .p2align 2 _test_int32_t__shift_5_10: ; @test_int32_t__shift_5_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_5_11 ; -- Begin function test_int32_t__shift_5_11 .p2align 2 _test_int32_t__shift_5_11: ; @test_int32_t__shift_5_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_0 ; -- Begin function test_int32_t__shift_6_0 .p2align 2 _test_int32_t__shift_6_0: ; @test_int32_t__shift_6_0 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_1 ; -- Begin function test_int32_t__shift_6_1 .p2align 2 _test_int32_t__shift_6_1: ; @test_int32_t__shift_6_1 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_2 ; -- Begin function test_int32_t__shift_6_2 .p2align 2 _test_int32_t__shift_6_2: ; @test_int32_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_3 ; -- Begin function test_int32_t__shift_6_3 .p2align 2 _test_int32_t__shift_6_3: ; @test_int32_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_4 ; -- Begin function test_int32_t__shift_6_4 .p2align 2 _test_int32_t__shift_6_4: ; @test_int32_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_5 ; -- Begin function test_int32_t__shift_6_5 .p2align 2 _test_int32_t__shift_6_5: ; @test_int32_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_6 ; -- Begin function test_int32_t__shift_6_6 .p2align 2 _test_int32_t__shift_6_6: ; @test_int32_t__shift_6_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_7 ; -- Begin function test_int32_t__shift_6_7 .p2align 2 _test_int32_t__shift_6_7: ; @test_int32_t__shift_6_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_8 ; -- Begin function test_int32_t__shift_6_8 .p2align 2 _test_int32_t__shift_6_8: ; @test_int32_t__shift_6_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_9 ; -- Begin function test_int32_t__shift_6_9 .p2align 2 _test_int32_t__shift_6_9: ; @test_int32_t__shift_6_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_10 ; -- Begin function test_int32_t__shift_6_10 .p2align 2 _test_int32_t__shift_6_10: ; @test_int32_t__shift_6_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_6_11 ; -- Begin function test_int32_t__shift_6_11 .p2align 2 _test_int32_t__shift_6_11: ; @test_int32_t__shift_6_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_0 ; -- Begin function test_int32_t__shift_7_0 .p2align 2 _test_int32_t__shift_7_0: ; @test_int32_t__shift_7_0 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_1 ; -- Begin function test_int32_t__shift_7_1 .p2align 2 _test_int32_t__shift_7_1: ; @test_int32_t__shift_7_1 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_2 ; -- Begin function test_int32_t__shift_7_2 .p2align 2 _test_int32_t__shift_7_2: ; @test_int32_t__shift_7_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_3 ; -- Begin function test_int32_t__shift_7_3 .p2align 2 _test_int32_t__shift_7_3: ; @test_int32_t__shift_7_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_4 ; -- Begin function test_int32_t__shift_7_4 .p2align 2 _test_int32_t__shift_7_4: ; @test_int32_t__shift_7_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_5 ; -- Begin function test_int32_t__shift_7_5 .p2align 2 _test_int32_t__shift_7_5: ; @test_int32_t__shift_7_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_6 ; -- Begin function test_int32_t__shift_7_6 .p2align 2 _test_int32_t__shift_7_6: ; @test_int32_t__shift_7_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_7 ; -- Begin function test_int32_t__shift_7_7 .p2align 2 _test_int32_t__shift_7_7: ; @test_int32_t__shift_7_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_8 ; -- Begin function test_int32_t__shift_7_8 .p2align 2 _test_int32_t__shift_7_8: ; @test_int32_t__shift_7_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_9 ; -- Begin function test_int32_t__shift_7_9 .p2align 2 _test_int32_t__shift_7_9: ; @test_int32_t__shift_7_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_10 ; -- Begin function test_int32_t__shift_7_10 .p2align 2 _test_int32_t__shift_7_10: ; @test_int32_t__shift_7_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int32_t__shift_7_11 ; -- Begin function test_int32_t__shift_7_11 .p2align 2 _test_int32_t__shift_7_11: ; @test_int32_t__shift_7_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_0 ; -- Begin function test_uint32_t__shift_0_0 .p2align 2 _test_uint32_t__shift_0_0: ; @test_uint32_t__shift_0_0 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_1 ; -- Begin function test_uint32_t__shift_0_1 .p2align 2 _test_uint32_t__shift_0_1: ; @test_uint32_t__shift_0_1 .cfi_startproc ; %bb.0: tst w0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_2 ; -- Begin function test_uint32_t__shift_0_2 .p2align 2 _test_uint32_t__shift_0_2: ; @test_uint32_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_3 ; -- Begin function test_uint32_t__shift_0_3 .p2align 2 _test_uint32_t__shift_0_3: ; @test_uint32_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_4 ; -- Begin function test_uint32_t__shift_0_4 .p2align 2 _test_uint32_t__shift_0_4: ; @test_uint32_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_5 ; -- Begin function test_uint32_t__shift_0_5 .p2align 2 _test_uint32_t__shift_0_5: ; @test_uint32_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_6 ; -- Begin function test_uint32_t__shift_0_6 .p2align 2 _test_uint32_t__shift_0_6: ; @test_uint32_t__shift_0_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_7 ; -- Begin function test_uint32_t__shift_0_7 .p2align 2 _test_uint32_t__shift_0_7: ; @test_uint32_t__shift_0_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_8 ; -- Begin function test_uint32_t__shift_0_8 .p2align 2 _test_uint32_t__shift_0_8: ; @test_uint32_t__shift_0_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_9 ; -- Begin function test_uint32_t__shift_0_9 .p2align 2 _test_uint32_t__shift_0_9: ; @test_uint32_t__shift_0_9 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_10 ; -- Begin function test_uint32_t__shift_0_10 .p2align 2 _test_uint32_t__shift_0_10: ; @test_uint32_t__shift_0_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_0_11 ; -- Begin function test_uint32_t__shift_0_11 .p2align 2 _test_uint32_t__shift_0_11: ; @test_uint32_t__shift_0_11 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_0 ; -- Begin function test_uint32_t__shift_1_0 .p2align 2 _test_uint32_t__shift_1_0: ; @test_uint32_t__shift_1_0 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_1 ; -- Begin function test_uint32_t__shift_1_1 .p2align 2 _test_uint32_t__shift_1_1: ; @test_uint32_t__shift_1_1 .cfi_startproc ; %bb.0: tst w0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_2 ; -- Begin function test_uint32_t__shift_1_2 .p2align 2 _test_uint32_t__shift_1_2: ; @test_uint32_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_3 ; -- Begin function test_uint32_t__shift_1_3 .p2align 2 _test_uint32_t__shift_1_3: ; @test_uint32_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_4 ; -- Begin function test_uint32_t__shift_1_4 .p2align 2 _test_uint32_t__shift_1_4: ; @test_uint32_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_5 ; -- Begin function test_uint32_t__shift_1_5 .p2align 2 _test_uint32_t__shift_1_5: ; @test_uint32_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_6 ; -- Begin function test_uint32_t__shift_1_6 .p2align 2 _test_uint32_t__shift_1_6: ; @test_uint32_t__shift_1_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_7 ; -- Begin function test_uint32_t__shift_1_7 .p2align 2 _test_uint32_t__shift_1_7: ; @test_uint32_t__shift_1_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_8 ; -- Begin function test_uint32_t__shift_1_8 .p2align 2 _test_uint32_t__shift_1_8: ; @test_uint32_t__shift_1_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_9 ; -- Begin function test_uint32_t__shift_1_9 .p2align 2 _test_uint32_t__shift_1_9: ; @test_uint32_t__shift_1_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_10 ; -- Begin function test_uint32_t__shift_1_10 .p2align 2 _test_uint32_t__shift_1_10: ; @test_uint32_t__shift_1_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_1_11 ; -- Begin function test_uint32_t__shift_1_11 .p2align 2 _test_uint32_t__shift_1_11: ; @test_uint32_t__shift_1_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_0 ; -- Begin function test_uint32_t__shift_2_0 .p2align 2 _test_uint32_t__shift_2_0: ; @test_uint32_t__shift_2_0 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_1 ; -- Begin function test_uint32_t__shift_2_1 .p2align 2 _test_uint32_t__shift_2_1: ; @test_uint32_t__shift_2_1 .cfi_startproc ; %bb.0: tst w0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_2 ; -- Begin function test_uint32_t__shift_2_2 .p2align 2 _test_uint32_t__shift_2_2: ; @test_uint32_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_3 ; -- Begin function test_uint32_t__shift_2_3 .p2align 2 _test_uint32_t__shift_2_3: ; @test_uint32_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_4 ; -- Begin function test_uint32_t__shift_2_4 .p2align 2 _test_uint32_t__shift_2_4: ; @test_uint32_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_5 ; -- Begin function test_uint32_t__shift_2_5 .p2align 2 _test_uint32_t__shift_2_5: ; @test_uint32_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_6 ; -- Begin function test_uint32_t__shift_2_6 .p2align 2 _test_uint32_t__shift_2_6: ; @test_uint32_t__shift_2_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_7 ; -- Begin function test_uint32_t__shift_2_7 .p2align 2 _test_uint32_t__shift_2_7: ; @test_uint32_t__shift_2_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_8 ; -- Begin function test_uint32_t__shift_2_8 .p2align 2 _test_uint32_t__shift_2_8: ; @test_uint32_t__shift_2_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_9 ; -- Begin function test_uint32_t__shift_2_9 .p2align 2 _test_uint32_t__shift_2_9: ; @test_uint32_t__shift_2_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_10 ; -- Begin function test_uint32_t__shift_2_10 .p2align 2 _test_uint32_t__shift_2_10: ; @test_uint32_t__shift_2_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_2_11 ; -- Begin function test_uint32_t__shift_2_11 .p2align 2 _test_uint32_t__shift_2_11: ; @test_uint32_t__shift_2_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_0 ; -- Begin function test_uint32_t__shift_3_0 .p2align 2 _test_uint32_t__shift_3_0: ; @test_uint32_t__shift_3_0 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_1 ; -- Begin function test_uint32_t__shift_3_1 .p2align 2 _test_uint32_t__shift_3_1: ; @test_uint32_t__shift_3_1 .cfi_startproc ; %bb.0: tst w0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_2 ; -- Begin function test_uint32_t__shift_3_2 .p2align 2 _test_uint32_t__shift_3_2: ; @test_uint32_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_3 ; -- Begin function test_uint32_t__shift_3_3 .p2align 2 _test_uint32_t__shift_3_3: ; @test_uint32_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_4 ; -- Begin function test_uint32_t__shift_3_4 .p2align 2 _test_uint32_t__shift_3_4: ; @test_uint32_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_5 ; -- Begin function test_uint32_t__shift_3_5 .p2align 2 _test_uint32_t__shift_3_5: ; @test_uint32_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_6 ; -- Begin function test_uint32_t__shift_3_6 .p2align 2 _test_uint32_t__shift_3_6: ; @test_uint32_t__shift_3_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_7 ; -- Begin function test_uint32_t__shift_3_7 .p2align 2 _test_uint32_t__shift_3_7: ; @test_uint32_t__shift_3_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_8 ; -- Begin function test_uint32_t__shift_3_8 .p2align 2 _test_uint32_t__shift_3_8: ; @test_uint32_t__shift_3_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_9 ; -- Begin function test_uint32_t__shift_3_9 .p2align 2 _test_uint32_t__shift_3_9: ; @test_uint32_t__shift_3_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_10 ; -- Begin function test_uint32_t__shift_3_10 .p2align 2 _test_uint32_t__shift_3_10: ; @test_uint32_t__shift_3_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_3_11 ; -- Begin function test_uint32_t__shift_3_11 .p2align 2 _test_uint32_t__shift_3_11: ; @test_uint32_t__shift_3_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_0 ; -- Begin function test_uint32_t__shift_4_0 .p2align 2 _test_uint32_t__shift_4_0: ; @test_uint32_t__shift_4_0 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_1 ; -- Begin function test_uint32_t__shift_4_1 .p2align 2 _test_uint32_t__shift_4_1: ; @test_uint32_t__shift_4_1 .cfi_startproc ; %bb.0: tst w0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_2 ; -- Begin function test_uint32_t__shift_4_2 .p2align 2 _test_uint32_t__shift_4_2: ; @test_uint32_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_3 ; -- Begin function test_uint32_t__shift_4_3 .p2align 2 _test_uint32_t__shift_4_3: ; @test_uint32_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_4 ; -- Begin function test_uint32_t__shift_4_4 .p2align 2 _test_uint32_t__shift_4_4: ; @test_uint32_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_5 ; -- Begin function test_uint32_t__shift_4_5 .p2align 2 _test_uint32_t__shift_4_5: ; @test_uint32_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_6 ; -- Begin function test_uint32_t__shift_4_6 .p2align 2 _test_uint32_t__shift_4_6: ; @test_uint32_t__shift_4_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_7 ; -- Begin function test_uint32_t__shift_4_7 .p2align 2 _test_uint32_t__shift_4_7: ; @test_uint32_t__shift_4_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_8 ; -- Begin function test_uint32_t__shift_4_8 .p2align 2 _test_uint32_t__shift_4_8: ; @test_uint32_t__shift_4_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_9 ; -- Begin function test_uint32_t__shift_4_9 .p2align 2 _test_uint32_t__shift_4_9: ; @test_uint32_t__shift_4_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_10 ; -- Begin function test_uint32_t__shift_4_10 .p2align 2 _test_uint32_t__shift_4_10: ; @test_uint32_t__shift_4_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_4_11 ; -- Begin function test_uint32_t__shift_4_11 .p2align 2 _test_uint32_t__shift_4_11: ; @test_uint32_t__shift_4_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_0 ; -- Begin function test_uint32_t__shift_5_0 .p2align 2 _test_uint32_t__shift_5_0: ; @test_uint32_t__shift_5_0 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_1 ; -- Begin function test_uint32_t__shift_5_1 .p2align 2 _test_uint32_t__shift_5_1: ; @test_uint32_t__shift_5_1 .cfi_startproc ; %bb.0: tst w0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_2 ; -- Begin function test_uint32_t__shift_5_2 .p2align 2 _test_uint32_t__shift_5_2: ; @test_uint32_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_3 ; -- Begin function test_uint32_t__shift_5_3 .p2align 2 _test_uint32_t__shift_5_3: ; @test_uint32_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_4 ; -- Begin function test_uint32_t__shift_5_4 .p2align 2 _test_uint32_t__shift_5_4: ; @test_uint32_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_5 ; -- Begin function test_uint32_t__shift_5_5 .p2align 2 _test_uint32_t__shift_5_5: ; @test_uint32_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_6 ; -- Begin function test_uint32_t__shift_5_6 .p2align 2 _test_uint32_t__shift_5_6: ; @test_uint32_t__shift_5_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_7 ; -- Begin function test_uint32_t__shift_5_7 .p2align 2 _test_uint32_t__shift_5_7: ; @test_uint32_t__shift_5_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_8 ; -- Begin function test_uint32_t__shift_5_8 .p2align 2 _test_uint32_t__shift_5_8: ; @test_uint32_t__shift_5_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_9 ; -- Begin function test_uint32_t__shift_5_9 .p2align 2 _test_uint32_t__shift_5_9: ; @test_uint32_t__shift_5_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_10 ; -- Begin function test_uint32_t__shift_5_10 .p2align 2 _test_uint32_t__shift_5_10: ; @test_uint32_t__shift_5_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_5_11 ; -- Begin function test_uint32_t__shift_5_11 .p2align 2 _test_uint32_t__shift_5_11: ; @test_uint32_t__shift_5_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_0 ; -- Begin function test_uint32_t__shift_6_0 .p2align 2 _test_uint32_t__shift_6_0: ; @test_uint32_t__shift_6_0 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_1 ; -- Begin function test_uint32_t__shift_6_1 .p2align 2 _test_uint32_t__shift_6_1: ; @test_uint32_t__shift_6_1 .cfi_startproc ; %bb.0: tst w0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_2 ; -- Begin function test_uint32_t__shift_6_2 .p2align 2 _test_uint32_t__shift_6_2: ; @test_uint32_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_3 ; -- Begin function test_uint32_t__shift_6_3 .p2align 2 _test_uint32_t__shift_6_3: ; @test_uint32_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_4 ; -- Begin function test_uint32_t__shift_6_4 .p2align 2 _test_uint32_t__shift_6_4: ; @test_uint32_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_5 ; -- Begin function test_uint32_t__shift_6_5 .p2align 2 _test_uint32_t__shift_6_5: ; @test_uint32_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_6 ; -- Begin function test_uint32_t__shift_6_6 .p2align 2 _test_uint32_t__shift_6_6: ; @test_uint32_t__shift_6_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_7 ; -- Begin function test_uint32_t__shift_6_7 .p2align 2 _test_uint32_t__shift_6_7: ; @test_uint32_t__shift_6_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_8 ; -- Begin function test_uint32_t__shift_6_8 .p2align 2 _test_uint32_t__shift_6_8: ; @test_uint32_t__shift_6_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_9 ; -- Begin function test_uint32_t__shift_6_9 .p2align 2 _test_uint32_t__shift_6_9: ; @test_uint32_t__shift_6_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_10 ; -- Begin function test_uint32_t__shift_6_10 .p2align 2 _test_uint32_t__shift_6_10: ; @test_uint32_t__shift_6_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_6_11 ; -- Begin function test_uint32_t__shift_6_11 .p2align 2 _test_uint32_t__shift_6_11: ; @test_uint32_t__shift_6_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_0 ; -- Begin function test_uint32_t__shift_7_0 .p2align 2 _test_uint32_t__shift_7_0: ; @test_uint32_t__shift_7_0 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_1 ; -- Begin function test_uint32_t__shift_7_1 .p2align 2 _test_uint32_t__shift_7_1: ; @test_uint32_t__shift_7_1 .cfi_startproc ; %bb.0: tst w0, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_2 ; -- Begin function test_uint32_t__shift_7_2 .p2align 2 _test_uint32_t__shift_7_2: ; @test_uint32_t__shift_7_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_3 ; -- Begin function test_uint32_t__shift_7_3 .p2align 2 _test_uint32_t__shift_7_3: ; @test_uint32_t__shift_7_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_4 ; -- Begin function test_uint32_t__shift_7_4 .p2align 2 _test_uint32_t__shift_7_4: ; @test_uint32_t__shift_7_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_5 ; -- Begin function test_uint32_t__shift_7_5 .p2align 2 _test_uint32_t__shift_7_5: ; @test_uint32_t__shift_7_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_6 ; -- Begin function test_uint32_t__shift_7_6 .p2align 2 _test_uint32_t__shift_7_6: ; @test_uint32_t__shift_7_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_7 ; -- Begin function test_uint32_t__shift_7_7 .p2align 2 _test_uint32_t__shift_7_7: ; @test_uint32_t__shift_7_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_8 ; -- Begin function test_uint32_t__shift_7_8 .p2align 2 _test_uint32_t__shift_7_8: ; @test_uint32_t__shift_7_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_9 ; -- Begin function test_uint32_t__shift_7_9 .p2align 2 _test_uint32_t__shift_7_9: ; @test_uint32_t__shift_7_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_10 ; -- Begin function test_uint32_t__shift_7_10 .p2align 2 _test_uint32_t__shift_7_10: ; @test_uint32_t__shift_7_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint32_t__shift_7_11 ; -- Begin function test_uint32_t__shift_7_11 .p2align 2 _test_uint32_t__shift_7_11: ; @test_uint32_t__shift_7_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_0 ; -- Begin function test_int64_t__shift_0_0 .p2align 2 _test_int64_t__shift_0_0: ; @test_int64_t__shift_0_0 .cfi_startproc ; %bb.0: tst x0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_1 ; -- Begin function test_int64_t__shift_0_1 .p2align 2 _test_int64_t__shift_0_1: ; @test_int64_t__shift_0_1 .cfi_startproc ; %bb.0: tst x0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_2 ; -- Begin function test_int64_t__shift_0_2 .p2align 2 _test_int64_t__shift_0_2: ; @test_int64_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_3 ; -- Begin function test_int64_t__shift_0_3 .p2align 2 _test_int64_t__shift_0_3: ; @test_int64_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_4 ; -- Begin function test_int64_t__shift_0_4 .p2align 2 _test_int64_t__shift_0_4: ; @test_int64_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_5 ; -- Begin function test_int64_t__shift_0_5 .p2align 2 _test_int64_t__shift_0_5: ; @test_int64_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_6 ; -- Begin function test_int64_t__shift_0_6 .p2align 2 _test_int64_t__shift_0_6: ; @test_int64_t__shift_0_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_7 ; -- Begin function test_int64_t__shift_0_7 .p2align 2 _test_int64_t__shift_0_7: ; @test_int64_t__shift_0_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_8 ; -- Begin function test_int64_t__shift_0_8 .p2align 2 _test_int64_t__shift_0_8: ; @test_int64_t__shift_0_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_9 ; -- Begin function test_int64_t__shift_0_9 .p2align 2 _test_int64_t__shift_0_9: ; @test_int64_t__shift_0_9 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_10 ; -- Begin function test_int64_t__shift_0_10 .p2align 2 _test_int64_t__shift_0_10: ; @test_int64_t__shift_0_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_0_11 ; -- Begin function test_int64_t__shift_0_11 .p2align 2 _test_int64_t__shift_0_11: ; @test_int64_t__shift_0_11 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_0 ; -- Begin function test_int64_t__shift_1_0 .p2align 2 _test_int64_t__shift_1_0: ; @test_int64_t__shift_1_0 .cfi_startproc ; %bb.0: tst x0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_1 ; -- Begin function test_int64_t__shift_1_1 .p2align 2 _test_int64_t__shift_1_1: ; @test_int64_t__shift_1_1 .cfi_startproc ; %bb.0: tst x0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_2 ; -- Begin function test_int64_t__shift_1_2 .p2align 2 _test_int64_t__shift_1_2: ; @test_int64_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_3 ; -- Begin function test_int64_t__shift_1_3 .p2align 2 _test_int64_t__shift_1_3: ; @test_int64_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_4 ; -- Begin function test_int64_t__shift_1_4 .p2align 2 _test_int64_t__shift_1_4: ; @test_int64_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_5 ; -- Begin function test_int64_t__shift_1_5 .p2align 2 _test_int64_t__shift_1_5: ; @test_int64_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_6 ; -- Begin function test_int64_t__shift_1_6 .p2align 2 _test_int64_t__shift_1_6: ; @test_int64_t__shift_1_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_7 ; -- Begin function test_int64_t__shift_1_7 .p2align 2 _test_int64_t__shift_1_7: ; @test_int64_t__shift_1_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_8 ; -- Begin function test_int64_t__shift_1_8 .p2align 2 _test_int64_t__shift_1_8: ; @test_int64_t__shift_1_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_9 ; -- Begin function test_int64_t__shift_1_9 .p2align 2 _test_int64_t__shift_1_9: ; @test_int64_t__shift_1_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_10 ; -- Begin function test_int64_t__shift_1_10 .p2align 2 _test_int64_t__shift_1_10: ; @test_int64_t__shift_1_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_1_11 ; -- Begin function test_int64_t__shift_1_11 .p2align 2 _test_int64_t__shift_1_11: ; @test_int64_t__shift_1_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_0 ; -- Begin function test_int64_t__shift_2_0 .p2align 2 _test_int64_t__shift_2_0: ; @test_int64_t__shift_2_0 .cfi_startproc ; %bb.0: tst x0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_1 ; -- Begin function test_int64_t__shift_2_1 .p2align 2 _test_int64_t__shift_2_1: ; @test_int64_t__shift_2_1 .cfi_startproc ; %bb.0: tst x0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_2 ; -- Begin function test_int64_t__shift_2_2 .p2align 2 _test_int64_t__shift_2_2: ; @test_int64_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_3 ; -- Begin function test_int64_t__shift_2_3 .p2align 2 _test_int64_t__shift_2_3: ; @test_int64_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_4 ; -- Begin function test_int64_t__shift_2_4 .p2align 2 _test_int64_t__shift_2_4: ; @test_int64_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_5 ; -- Begin function test_int64_t__shift_2_5 .p2align 2 _test_int64_t__shift_2_5: ; @test_int64_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_6 ; -- Begin function test_int64_t__shift_2_6 .p2align 2 _test_int64_t__shift_2_6: ; @test_int64_t__shift_2_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_7 ; -- Begin function test_int64_t__shift_2_7 .p2align 2 _test_int64_t__shift_2_7: ; @test_int64_t__shift_2_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_8 ; -- Begin function test_int64_t__shift_2_8 .p2align 2 _test_int64_t__shift_2_8: ; @test_int64_t__shift_2_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_9 ; -- Begin function test_int64_t__shift_2_9 .p2align 2 _test_int64_t__shift_2_9: ; @test_int64_t__shift_2_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_10 ; -- Begin function test_int64_t__shift_2_10 .p2align 2 _test_int64_t__shift_2_10: ; @test_int64_t__shift_2_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_2_11 ; -- Begin function test_int64_t__shift_2_11 .p2align 2 _test_int64_t__shift_2_11: ; @test_int64_t__shift_2_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_0 ; -- Begin function test_int64_t__shift_3_0 .p2align 2 _test_int64_t__shift_3_0: ; @test_int64_t__shift_3_0 .cfi_startproc ; %bb.0: tst x0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_1 ; -- Begin function test_int64_t__shift_3_1 .p2align 2 _test_int64_t__shift_3_1: ; @test_int64_t__shift_3_1 .cfi_startproc ; %bb.0: tst x0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_2 ; -- Begin function test_int64_t__shift_3_2 .p2align 2 _test_int64_t__shift_3_2: ; @test_int64_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_3 ; -- Begin function test_int64_t__shift_3_3 .p2align 2 _test_int64_t__shift_3_3: ; @test_int64_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_4 ; -- Begin function test_int64_t__shift_3_4 .p2align 2 _test_int64_t__shift_3_4: ; @test_int64_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_5 ; -- Begin function test_int64_t__shift_3_5 .p2align 2 _test_int64_t__shift_3_5: ; @test_int64_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_6 ; -- Begin function test_int64_t__shift_3_6 .p2align 2 _test_int64_t__shift_3_6: ; @test_int64_t__shift_3_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_7 ; -- Begin function test_int64_t__shift_3_7 .p2align 2 _test_int64_t__shift_3_7: ; @test_int64_t__shift_3_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_8 ; -- Begin function test_int64_t__shift_3_8 .p2align 2 _test_int64_t__shift_3_8: ; @test_int64_t__shift_3_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_9 ; -- Begin function test_int64_t__shift_3_9 .p2align 2 _test_int64_t__shift_3_9: ; @test_int64_t__shift_3_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_10 ; -- Begin function test_int64_t__shift_3_10 .p2align 2 _test_int64_t__shift_3_10: ; @test_int64_t__shift_3_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_3_11 ; -- Begin function test_int64_t__shift_3_11 .p2align 2 _test_int64_t__shift_3_11: ; @test_int64_t__shift_3_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_0 ; -- Begin function test_int64_t__shift_4_0 .p2align 2 _test_int64_t__shift_4_0: ; @test_int64_t__shift_4_0 .cfi_startproc ; %bb.0: tst x0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_1 ; -- Begin function test_int64_t__shift_4_1 .p2align 2 _test_int64_t__shift_4_1: ; @test_int64_t__shift_4_1 .cfi_startproc ; %bb.0: tst x0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_2 ; -- Begin function test_int64_t__shift_4_2 .p2align 2 _test_int64_t__shift_4_2: ; @test_int64_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_3 ; -- Begin function test_int64_t__shift_4_3 .p2align 2 _test_int64_t__shift_4_3: ; @test_int64_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_4 ; -- Begin function test_int64_t__shift_4_4 .p2align 2 _test_int64_t__shift_4_4: ; @test_int64_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_5 ; -- Begin function test_int64_t__shift_4_5 .p2align 2 _test_int64_t__shift_4_5: ; @test_int64_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_6 ; -- Begin function test_int64_t__shift_4_6 .p2align 2 _test_int64_t__shift_4_6: ; @test_int64_t__shift_4_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_7 ; -- Begin function test_int64_t__shift_4_7 .p2align 2 _test_int64_t__shift_4_7: ; @test_int64_t__shift_4_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_8 ; -- Begin function test_int64_t__shift_4_8 .p2align 2 _test_int64_t__shift_4_8: ; @test_int64_t__shift_4_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_9 ; -- Begin function test_int64_t__shift_4_9 .p2align 2 _test_int64_t__shift_4_9: ; @test_int64_t__shift_4_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_10 ; -- Begin function test_int64_t__shift_4_10 .p2align 2 _test_int64_t__shift_4_10: ; @test_int64_t__shift_4_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_4_11 ; -- Begin function test_int64_t__shift_4_11 .p2align 2 _test_int64_t__shift_4_11: ; @test_int64_t__shift_4_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_0 ; -- Begin function test_int64_t__shift_5_0 .p2align 2 _test_int64_t__shift_5_0: ; @test_int64_t__shift_5_0 .cfi_startproc ; %bb.0: tst x0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_1 ; -- Begin function test_int64_t__shift_5_1 .p2align 2 _test_int64_t__shift_5_1: ; @test_int64_t__shift_5_1 .cfi_startproc ; %bb.0: tst x0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_2 ; -- Begin function test_int64_t__shift_5_2 .p2align 2 _test_int64_t__shift_5_2: ; @test_int64_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_3 ; -- Begin function test_int64_t__shift_5_3 .p2align 2 _test_int64_t__shift_5_3: ; @test_int64_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_4 ; -- Begin function test_int64_t__shift_5_4 .p2align 2 _test_int64_t__shift_5_4: ; @test_int64_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_5 ; -- Begin function test_int64_t__shift_5_5 .p2align 2 _test_int64_t__shift_5_5: ; @test_int64_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_6 ; -- Begin function test_int64_t__shift_5_6 .p2align 2 _test_int64_t__shift_5_6: ; @test_int64_t__shift_5_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_7 ; -- Begin function test_int64_t__shift_5_7 .p2align 2 _test_int64_t__shift_5_7: ; @test_int64_t__shift_5_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_8 ; -- Begin function test_int64_t__shift_5_8 .p2align 2 _test_int64_t__shift_5_8: ; @test_int64_t__shift_5_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_9 ; -- Begin function test_int64_t__shift_5_9 .p2align 2 _test_int64_t__shift_5_9: ; @test_int64_t__shift_5_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_10 ; -- Begin function test_int64_t__shift_5_10 .p2align 2 _test_int64_t__shift_5_10: ; @test_int64_t__shift_5_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_5_11 ; -- Begin function test_int64_t__shift_5_11 .p2align 2 _test_int64_t__shift_5_11: ; @test_int64_t__shift_5_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_0 ; -- Begin function test_int64_t__shift_6_0 .p2align 2 _test_int64_t__shift_6_0: ; @test_int64_t__shift_6_0 .cfi_startproc ; %bb.0: tst x0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_1 ; -- Begin function test_int64_t__shift_6_1 .p2align 2 _test_int64_t__shift_6_1: ; @test_int64_t__shift_6_1 .cfi_startproc ; %bb.0: tst x0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_2 ; -- Begin function test_int64_t__shift_6_2 .p2align 2 _test_int64_t__shift_6_2: ; @test_int64_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_3 ; -- Begin function test_int64_t__shift_6_3 .p2align 2 _test_int64_t__shift_6_3: ; @test_int64_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_4 ; -- Begin function test_int64_t__shift_6_4 .p2align 2 _test_int64_t__shift_6_4: ; @test_int64_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_5 ; -- Begin function test_int64_t__shift_6_5 .p2align 2 _test_int64_t__shift_6_5: ; @test_int64_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_6 ; -- Begin function test_int64_t__shift_6_6 .p2align 2 _test_int64_t__shift_6_6: ; @test_int64_t__shift_6_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_7 ; -- Begin function test_int64_t__shift_6_7 .p2align 2 _test_int64_t__shift_6_7: ; @test_int64_t__shift_6_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_8 ; -- Begin function test_int64_t__shift_6_8 .p2align 2 _test_int64_t__shift_6_8: ; @test_int64_t__shift_6_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_9 ; -- Begin function test_int64_t__shift_6_9 .p2align 2 _test_int64_t__shift_6_9: ; @test_int64_t__shift_6_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_10 ; -- Begin function test_int64_t__shift_6_10 .p2align 2 _test_int64_t__shift_6_10: ; @test_int64_t__shift_6_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_6_11 ; -- Begin function test_int64_t__shift_6_11 .p2align 2 _test_int64_t__shift_6_11: ; @test_int64_t__shift_6_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_0 ; -- Begin function test_int64_t__shift_7_0 .p2align 2 _test_int64_t__shift_7_0: ; @test_int64_t__shift_7_0 .cfi_startproc ; %bb.0: tst x0, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_1 ; -- Begin function test_int64_t__shift_7_1 .p2align 2 _test_int64_t__shift_7_1: ; @test_int64_t__shift_7_1 .cfi_startproc ; %bb.0: tst x0, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_2 ; -- Begin function test_int64_t__shift_7_2 .p2align 2 _test_int64_t__shift_7_2: ; @test_int64_t__shift_7_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_3 ; -- Begin function test_int64_t__shift_7_3 .p2align 2 _test_int64_t__shift_7_3: ; @test_int64_t__shift_7_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_4 ; -- Begin function test_int64_t__shift_7_4 .p2align 2 _test_int64_t__shift_7_4: ; @test_int64_t__shift_7_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_5 ; -- Begin function test_int64_t__shift_7_5 .p2align 2 _test_int64_t__shift_7_5: ; @test_int64_t__shift_7_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_6 ; -- Begin function test_int64_t__shift_7_6 .p2align 2 _test_int64_t__shift_7_6: ; @test_int64_t__shift_7_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_7 ; -- Begin function test_int64_t__shift_7_7 .p2align 2 _test_int64_t__shift_7_7: ; @test_int64_t__shift_7_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_8 ; -- Begin function test_int64_t__shift_7_8 .p2align 2 _test_int64_t__shift_7_8: ; @test_int64_t__shift_7_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_9 ; -- Begin function test_int64_t__shift_7_9 .p2align 2 _test_int64_t__shift_7_9: ; @test_int64_t__shift_7_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_10 ; -- Begin function test_int64_t__shift_7_10 .p2align 2 _test_int64_t__shift_7_10: ; @test_int64_t__shift_7_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_int64_t__shift_7_11 ; -- Begin function test_int64_t__shift_7_11 .p2align 2 _test_int64_t__shift_7_11: ; @test_int64_t__shift_7_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_0 ; -- Begin function test_uint64_t__shift_0_0 .p2align 2 _test_uint64_t__shift_0_0: ; @test_uint64_t__shift_0_0 .cfi_startproc ; %bb.0: tst x0, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_1 ; -- Begin function test_uint64_t__shift_0_1 .p2align 2 _test_uint64_t__shift_0_1: ; @test_uint64_t__shift_0_1 .cfi_startproc ; %bb.0: tst x0, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_2 ; -- Begin function test_uint64_t__shift_0_2 .p2align 2 _test_uint64_t__shift_0_2: ; @test_uint64_t__shift_0_2 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_3 ; -- Begin function test_uint64_t__shift_0_3 .p2align 2 _test_uint64_t__shift_0_3: ; @test_uint64_t__shift_0_3 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_4 ; -- Begin function test_uint64_t__shift_0_4 .p2align 2 _test_uint64_t__shift_0_4: ; @test_uint64_t__shift_0_4 .cfi_startproc ; %bb.0: mvn w8, w0 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_5 ; -- Begin function test_uint64_t__shift_0_5 .p2align 2 _test_uint64_t__shift_0_5: ; @test_uint64_t__shift_0_5 .cfi_startproc ; %bb.0: and w0, w0, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_6 ; -- Begin function test_uint64_t__shift_0_6 .p2align 2 _test_uint64_t__shift_0_6: ; @test_uint64_t__shift_0_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_7 ; -- Begin function test_uint64_t__shift_0_7 .p2align 2 _test_uint64_t__shift_0_7: ; @test_uint64_t__shift_0_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x1 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_8 ; -- Begin function test_uint64_t__shift_0_8 .p2align 2 _test_uint64_t__shift_0_8: ; @test_uint64_t__shift_0_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_9 ; -- Begin function test_uint64_t__shift_0_9 .p2align 2 _test_uint64_t__shift_0_9: ; @test_uint64_t__shift_0_9 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_10 ; -- Begin function test_uint64_t__shift_0_10 .p2align 2 _test_uint64_t__shift_0_10: ; @test_uint64_t__shift_0_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mvn w8, w8 and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_0_11 ; -- Begin function test_uint64_t__shift_0_11 .p2align 2 _test_uint64_t__shift_0_11: ; @test_uint64_t__shift_0_11 .cfi_startproc ; %bb.0: ldr w8, [x0] and w0, w8, #0x1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_0 ; -- Begin function test_uint64_t__shift_1_0 .p2align 2 _test_uint64_t__shift_1_0: ; @test_uint64_t__shift_1_0 .cfi_startproc ; %bb.0: tst x0, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_1 ; -- Begin function test_uint64_t__shift_1_1 .p2align 2 _test_uint64_t__shift_1_1: ; @test_uint64_t__shift_1_1 .cfi_startproc ; %bb.0: tst x0, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_2 ; -- Begin function test_uint64_t__shift_1_2 .p2align 2 _test_uint64_t__shift_1_2: ; @test_uint64_t__shift_1_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_3 ; -- Begin function test_uint64_t__shift_1_3 .p2align 2 _test_uint64_t__shift_1_3: ; @test_uint64_t__shift_1_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_4 ; -- Begin function test_uint64_t__shift_1_4 .p2align 2 _test_uint64_t__shift_1_4: ; @test_uint64_t__shift_1_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_5 ; -- Begin function test_uint64_t__shift_1_5 .p2align 2 _test_uint64_t__shift_1_5: ; @test_uint64_t__shift_1_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_6 ; -- Begin function test_uint64_t__shift_1_6 .p2align 2 _test_uint64_t__shift_1_6: ; @test_uint64_t__shift_1_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_7 ; -- Begin function test_uint64_t__shift_1_7 .p2align 2 _test_uint64_t__shift_1_7: ; @test_uint64_t__shift_1_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x2 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_8 ; -- Begin function test_uint64_t__shift_1_8 .p2align 2 _test_uint64_t__shift_1_8: ; @test_uint64_t__shift_1_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_9 ; -- Begin function test_uint64_t__shift_1_9 .p2align 2 _test_uint64_t__shift_1_9: ; @test_uint64_t__shift_1_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_10 ; -- Begin function test_uint64_t__shift_1_10 .p2align 2 _test_uint64_t__shift_1_10: ; @test_uint64_t__shift_1_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_1_11 ; -- Begin function test_uint64_t__shift_1_11 .p2align 2 _test_uint64_t__shift_1_11: ; @test_uint64_t__shift_1_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #1, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_0 ; -- Begin function test_uint64_t__shift_2_0 .p2align 2 _test_uint64_t__shift_2_0: ; @test_uint64_t__shift_2_0 .cfi_startproc ; %bb.0: tst x0, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_1 ; -- Begin function test_uint64_t__shift_2_1 .p2align 2 _test_uint64_t__shift_2_1: ; @test_uint64_t__shift_2_1 .cfi_startproc ; %bb.0: tst x0, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_2 ; -- Begin function test_uint64_t__shift_2_2 .p2align 2 _test_uint64_t__shift_2_2: ; @test_uint64_t__shift_2_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_3 ; -- Begin function test_uint64_t__shift_2_3 .p2align 2 _test_uint64_t__shift_2_3: ; @test_uint64_t__shift_2_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_4 ; -- Begin function test_uint64_t__shift_2_4 .p2align 2 _test_uint64_t__shift_2_4: ; @test_uint64_t__shift_2_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_5 ; -- Begin function test_uint64_t__shift_2_5 .p2align 2 _test_uint64_t__shift_2_5: ; @test_uint64_t__shift_2_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_6 ; -- Begin function test_uint64_t__shift_2_6 .p2align 2 _test_uint64_t__shift_2_6: ; @test_uint64_t__shift_2_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_7 ; -- Begin function test_uint64_t__shift_2_7 .p2align 2 _test_uint64_t__shift_2_7: ; @test_uint64_t__shift_2_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x4 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_8 ; -- Begin function test_uint64_t__shift_2_8 .p2align 2 _test_uint64_t__shift_2_8: ; @test_uint64_t__shift_2_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_9 ; -- Begin function test_uint64_t__shift_2_9 .p2align 2 _test_uint64_t__shift_2_9: ; @test_uint64_t__shift_2_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_10 ; -- Begin function test_uint64_t__shift_2_10 .p2align 2 _test_uint64_t__shift_2_10: ; @test_uint64_t__shift_2_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #2 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_2_11 ; -- Begin function test_uint64_t__shift_2_11 .p2align 2 _test_uint64_t__shift_2_11: ; @test_uint64_t__shift_2_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #2, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_0 ; -- Begin function test_uint64_t__shift_3_0 .p2align 2 _test_uint64_t__shift_3_0: ; @test_uint64_t__shift_3_0 .cfi_startproc ; %bb.0: tst x0, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_1 ; -- Begin function test_uint64_t__shift_3_1 .p2align 2 _test_uint64_t__shift_3_1: ; @test_uint64_t__shift_3_1 .cfi_startproc ; %bb.0: tst x0, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_2 ; -- Begin function test_uint64_t__shift_3_2 .p2align 2 _test_uint64_t__shift_3_2: ; @test_uint64_t__shift_3_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_3 ; -- Begin function test_uint64_t__shift_3_3 .p2align 2 _test_uint64_t__shift_3_3: ; @test_uint64_t__shift_3_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_4 ; -- Begin function test_uint64_t__shift_3_4 .p2align 2 _test_uint64_t__shift_3_4: ; @test_uint64_t__shift_3_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_5 ; -- Begin function test_uint64_t__shift_3_5 .p2align 2 _test_uint64_t__shift_3_5: ; @test_uint64_t__shift_3_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_6 ; -- Begin function test_uint64_t__shift_3_6 .p2align 2 _test_uint64_t__shift_3_6: ; @test_uint64_t__shift_3_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_7 ; -- Begin function test_uint64_t__shift_3_7 .p2align 2 _test_uint64_t__shift_3_7: ; @test_uint64_t__shift_3_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x8 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_8 ; -- Begin function test_uint64_t__shift_3_8 .p2align 2 _test_uint64_t__shift_3_8: ; @test_uint64_t__shift_3_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_9 ; -- Begin function test_uint64_t__shift_3_9 .p2align 2 _test_uint64_t__shift_3_9: ; @test_uint64_t__shift_3_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_10 ; -- Begin function test_uint64_t__shift_3_10 .p2align 2 _test_uint64_t__shift_3_10: ; @test_uint64_t__shift_3_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #3 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_3_11 ; -- Begin function test_uint64_t__shift_3_11 .p2align 2 _test_uint64_t__shift_3_11: ; @test_uint64_t__shift_3_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #3, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_0 ; -- Begin function test_uint64_t__shift_4_0 .p2align 2 _test_uint64_t__shift_4_0: ; @test_uint64_t__shift_4_0 .cfi_startproc ; %bb.0: tst x0, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_1 ; -- Begin function test_uint64_t__shift_4_1 .p2align 2 _test_uint64_t__shift_4_1: ; @test_uint64_t__shift_4_1 .cfi_startproc ; %bb.0: tst x0, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_2 ; -- Begin function test_uint64_t__shift_4_2 .p2align 2 _test_uint64_t__shift_4_2: ; @test_uint64_t__shift_4_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_3 ; -- Begin function test_uint64_t__shift_4_3 .p2align 2 _test_uint64_t__shift_4_3: ; @test_uint64_t__shift_4_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_4 ; -- Begin function test_uint64_t__shift_4_4 .p2align 2 _test_uint64_t__shift_4_4: ; @test_uint64_t__shift_4_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_5 ; -- Begin function test_uint64_t__shift_4_5 .p2align 2 _test_uint64_t__shift_4_5: ; @test_uint64_t__shift_4_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_6 ; -- Begin function test_uint64_t__shift_4_6 .p2align 2 _test_uint64_t__shift_4_6: ; @test_uint64_t__shift_4_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_7 ; -- Begin function test_uint64_t__shift_4_7 .p2align 2 _test_uint64_t__shift_4_7: ; @test_uint64_t__shift_4_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x10 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_8 ; -- Begin function test_uint64_t__shift_4_8 .p2align 2 _test_uint64_t__shift_4_8: ; @test_uint64_t__shift_4_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_9 ; -- Begin function test_uint64_t__shift_4_9 .p2align 2 _test_uint64_t__shift_4_9: ; @test_uint64_t__shift_4_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_10 ; -- Begin function test_uint64_t__shift_4_10 .p2align 2 _test_uint64_t__shift_4_10: ; @test_uint64_t__shift_4_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #4 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_4_11 ; -- Begin function test_uint64_t__shift_4_11 .p2align 2 _test_uint64_t__shift_4_11: ; @test_uint64_t__shift_4_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #4, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_0 ; -- Begin function test_uint64_t__shift_5_0 .p2align 2 _test_uint64_t__shift_5_0: ; @test_uint64_t__shift_5_0 .cfi_startproc ; %bb.0: tst x0, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_1 ; -- Begin function test_uint64_t__shift_5_1 .p2align 2 _test_uint64_t__shift_5_1: ; @test_uint64_t__shift_5_1 .cfi_startproc ; %bb.0: tst x0, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_2 ; -- Begin function test_uint64_t__shift_5_2 .p2align 2 _test_uint64_t__shift_5_2: ; @test_uint64_t__shift_5_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_3 ; -- Begin function test_uint64_t__shift_5_3 .p2align 2 _test_uint64_t__shift_5_3: ; @test_uint64_t__shift_5_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_4 ; -- Begin function test_uint64_t__shift_5_4 .p2align 2 _test_uint64_t__shift_5_4: ; @test_uint64_t__shift_5_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_5 ; -- Begin function test_uint64_t__shift_5_5 .p2align 2 _test_uint64_t__shift_5_5: ; @test_uint64_t__shift_5_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_6 ; -- Begin function test_uint64_t__shift_5_6 .p2align 2 _test_uint64_t__shift_5_6: ; @test_uint64_t__shift_5_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_7 ; -- Begin function test_uint64_t__shift_5_7 .p2align 2 _test_uint64_t__shift_5_7: ; @test_uint64_t__shift_5_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x20 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_8 ; -- Begin function test_uint64_t__shift_5_8 .p2align 2 _test_uint64_t__shift_5_8: ; @test_uint64_t__shift_5_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_9 ; -- Begin function test_uint64_t__shift_5_9 .p2align 2 _test_uint64_t__shift_5_9: ; @test_uint64_t__shift_5_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_10 ; -- Begin function test_uint64_t__shift_5_10 .p2align 2 _test_uint64_t__shift_5_10: ; @test_uint64_t__shift_5_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #5 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_5_11 ; -- Begin function test_uint64_t__shift_5_11 .p2align 2 _test_uint64_t__shift_5_11: ; @test_uint64_t__shift_5_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #5, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_0 ; -- Begin function test_uint64_t__shift_6_0 .p2align 2 _test_uint64_t__shift_6_0: ; @test_uint64_t__shift_6_0 .cfi_startproc ; %bb.0: tst x0, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_1 ; -- Begin function test_uint64_t__shift_6_1 .p2align 2 _test_uint64_t__shift_6_1: ; @test_uint64_t__shift_6_1 .cfi_startproc ; %bb.0: tst x0, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_2 ; -- Begin function test_uint64_t__shift_6_2 .p2align 2 _test_uint64_t__shift_6_2: ; @test_uint64_t__shift_6_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_3 ; -- Begin function test_uint64_t__shift_6_3 .p2align 2 _test_uint64_t__shift_6_3: ; @test_uint64_t__shift_6_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_4 ; -- Begin function test_uint64_t__shift_6_4 .p2align 2 _test_uint64_t__shift_6_4: ; @test_uint64_t__shift_6_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_5 ; -- Begin function test_uint64_t__shift_6_5 .p2align 2 _test_uint64_t__shift_6_5: ; @test_uint64_t__shift_6_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_6 ; -- Begin function test_uint64_t__shift_6_6 .p2align 2 _test_uint64_t__shift_6_6: ; @test_uint64_t__shift_6_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_7 ; -- Begin function test_uint64_t__shift_6_7 .p2align 2 _test_uint64_t__shift_6_7: ; @test_uint64_t__shift_6_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x40 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_8 ; -- Begin function test_uint64_t__shift_6_8 .p2align 2 _test_uint64_t__shift_6_8: ; @test_uint64_t__shift_6_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_9 ; -- Begin function test_uint64_t__shift_6_9 .p2align 2 _test_uint64_t__shift_6_9: ; @test_uint64_t__shift_6_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_10 ; -- Begin function test_uint64_t__shift_6_10 .p2align 2 _test_uint64_t__shift_6_10: ; @test_uint64_t__shift_6_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #6 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_6_11 ; -- Begin function test_uint64_t__shift_6_11 .p2align 2 _test_uint64_t__shift_6_11: ; @test_uint64_t__shift_6_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #6, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_0 ; -- Begin function test_uint64_t__shift_7_0 .p2align 2 _test_uint64_t__shift_7_0: ; @test_uint64_t__shift_7_0 .cfi_startproc ; %bb.0: tst x0, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_1 ; -- Begin function test_uint64_t__shift_7_1 .p2align 2 _test_uint64_t__shift_7_1: ; @test_uint64_t__shift_7_1 .cfi_startproc ; %bb.0: tst x0, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_2 ; -- Begin function test_uint64_t__shift_7_2 .p2align 2 _test_uint64_t__shift_7_2: ; @test_uint64_t__shift_7_2 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_3 ; -- Begin function test_uint64_t__shift_7_3 .p2align 2 _test_uint64_t__shift_7_3: ; @test_uint64_t__shift_7_3 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_4 ; -- Begin function test_uint64_t__shift_7_4 .p2align 2 _test_uint64_t__shift_7_4: ; @test_uint64_t__shift_7_4 .cfi_startproc ; %bb.0: mov w8, #1 bic w0, w8, w0, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_5 ; -- Begin function test_uint64_t__shift_7_5 .p2align 2 _test_uint64_t__shift_7_5: ; @test_uint64_t__shift_7_5 .cfi_startproc ; %bb.0: ubfx w0, w0, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_6 ; -- Begin function test_uint64_t__shift_7_6 .p2align 2 _test_uint64_t__shift_7_6: ; @test_uint64_t__shift_7_6 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-10 mov w9, #-40 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_7 ; -- Begin function test_uint64_t__shift_7_7 .p2align 2 _test_uint64_t__shift_7_7: ; @test_uint64_t__shift_7_7 .cfi_startproc ; %bb.0: ldrb w8, [x0] tst w8, #0x80 mov w8, #-40 mov w9, #-10 csel w0, w9, w8, eq ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_8 ; -- Begin function test_uint64_t__shift_7_8 .p2align 2 _test_uint64_t__shift_7_8: ; @test_uint64_t__shift_7_8 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_9 ; -- Begin function test_uint64_t__shift_7_9 .p2align 2 _test_uint64_t__shift_7_9: ; @test_uint64_t__shift_7_9 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_10 ; -- Begin function test_uint64_t__shift_7_10 .p2align 2 _test_uint64_t__shift_7_10: ; @test_uint64_t__shift_7_10 .cfi_startproc ; %bb.0: ldr w8, [x0] mov w9, #1 bic w0, w9, w8, lsr #7 ret .cfi_endproc ; -- End function .globl _test_uint64_t__shift_7_11 ; -- Begin function test_uint64_t__shift_7_11 .p2align 2 _test_uint64_t__shift_7_11: ; @test_uint64_t__shift_7_11 .cfi_startproc ; %bb.0: ldr w8, [x0] ubfx w0, w8, #7, #1 ret .cfi_endproc ; -- End function .subsections_via_symbols
the_stack_data/64200931.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _yywrap ## -- Begin function yywrap .p2align 4, 0x90 _yywrap: ## @yywrap .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl $1, %eax popq %rbp retq .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _yywrap ; -- Begin function yywrap .p2align 2 _yywrap: ; @yywrap .cfi_startproc ; %bb.0: mov w0, #1 ret .cfi_endproc ; -- End function .subsections_via_symbols
AnghaBench/Quake-III-Arena/lcc/tst/extr_yacc.c_yywrap.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _monitorSaveAcctLog ## -- Begin function monitorSaveAcctLog .p2align 4, 0x90 _monitorSaveAcctLog: ## @monitorSaveAcctLog .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $1080, %rsp ## imm = 0x438 .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 ## kill: def $r9d killed $r9d def $r9 movq %r9, -1080(%rbp) ## 8-byte Spill ## kill: def $r8d killed $r8d def $r8 movq %r8, -1088(%rbp) ## 8-byte Spill ## kill: def $ecx killed $ecx def $rcx movq %rcx, -1096(%rbp) ## 8-byte Spill ## kill: def $edx killed $edx def $rdx movq %rdx, -1104(%rbp) ## 8-byte Spill ## kill: def $esi killed $esi def $rsi movq %rsi, -1112(%rbp) ## 8-byte Spill movq %rdi, %r15 movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -48(%rbp) movl 120(%rbp), %r12d movl 128(%rbp), %ebx movl 136(%rbp), %r13d leaq -1072(%rbp), %r14 movl $1024, %esi ## imm = 0x400 movq %r14, %rdi callq ___bzero movq _tsMonitorDbName@GOTPCREL(%rip), %rax movq (%rax), %rdx subq $8, %rsp leaq L_.str(%rip), %rsi movq %r14, %rdi movq %r15, %rcx movq %rdx, %r8 movq %r15, %r9 pushq %r13 pushq %rbx pushq %r12 movl 112(%rbp), %eax pushq %rax movl 104(%rbp), %eax pushq %rax movl 96(%rbp), %eax pushq %rax movl 88(%rbp), %eax pushq %rax movl 80(%rbp), %eax pushq %rax movl 72(%rbp), %eax pushq %rax movl 64(%rbp), %eax pushq %rax movl 56(%rbp), %eax pushq %rax movl 48(%rbp), %eax pushq %rax movl 40(%rbp), %eax pushq %rax movl 32(%rbp), %eax pushq %rax movl 24(%rbp), %eax pushq %rax movl 16(%rbp), %eax pushq %rax pushq -1080(%rbp) ## 8-byte Folded Reload pushq -1088(%rbp) ## 8-byte Folded Reload pushq -1096(%rbp) ## 8-byte Folded Reload pushq -1104(%rbp) ## 8-byte Folded Reload pushq -1112(%rbp) ## 8-byte Folded Reload callq _sprintf addq $176, %rsp movq _monitor@GOTPCREL(%rip), %rbx movq (%rbx), %rax movl (%rax), %esi leaq L_.str.1(%rip), %rdi movq %r14, %rdx callq _monitorTrace movq (%rbx), %rax movl (%rax), %edi movq _dnodeMontiorInsertAcctCallback@GOTPCREL(%rip), %rax movl (%rax), %edx leaq L_.str.2(%rip), %rcx movq %r14, %rsi callq _taos_query_a movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -48(%rbp), %rax jne LBB0_2 ## %bb.1: addq $1080, %rsp ## imm = 0x438 popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB0_2: callq ___stack_chk_fail .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "insert into %s.acct_%s using %s.acct tags('%s') values(now, %ld, %ld , %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %d)" .comm _tsMonitorDbName,8,3 ## @tsMonitorDbName L_.str.1: ## @.str.1 .asciz "monitor:%p, save account info, sql %s" .comm _monitor,8,3 ## @monitor .comm _dnodeMontiorInsertAcctCallback,4,2 ## @dnodeMontiorInsertAcctCallback L_.str.2: ## @.str.2 .asciz "account" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _monitorSaveAcctLog ; -- Begin function monitorSaveAcctLog .p2align 2 _monitorSaveAcctLog: ; @monitorSaveAcctLog .cfi_startproc ; %bb.0: stp x28, x27, [sp, #-96]! ; 16-byte Folded Spill .cfi_def_cfa_offset 96 stp x26, x25, [sp, #16] ; 16-byte Folded Spill stp x24, x23, [sp, #32] ; 16-byte Folded Spill stp x22, x21, [sp, #48] ; 16-byte Folded Spill stp x20, x19, [sp, #64] ; 16-byte Folded Spill stp x29, x30, [sp, #80] ; 16-byte Folded Spill add x29, sp, #80 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 .cfi_offset w27, -88 .cfi_offset w28, -96 sub sp, sp, #1168 mov x19, x7 mov x20, x6 mov x21, x5 mov x22, x4 mov x23, x3 mov x24, x2 mov x25, x1 mov x26, x0 ldr q0, [x29, #16] str q0, [sp, #112] ; 16-byte Folded Spill ldr q0, [x29, #32] str q0, [sp, #96] ; 16-byte Folded Spill ldr q0, [x29, #48] str q0, [sp, #80] ; 16-byte Folded Spill ldp w27, w28, [x29, #64] Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] stur x8, [x29, #-96] add x0, sp, #128 mov w1, #1024 bl _bzero Lloh3: adrp x8, _tsMonitorDbName@GOTPAGE Lloh4: ldr x8, [x8, _tsMonitorDbName@GOTPAGEOFF] Lloh5: ldr x2, [x8] stp w27, w28, [sp, #68] ldr q0, [sp, #80] ; 16-byte Folded Reload stur q0, [sp, #52] ldr q0, [sp, #96] ; 16-byte Folded Reload stur q0, [sp, #36] ldr q0, [sp, #112] ; 16-byte Folded Reload stur q0, [sp, #20] stp w20, w19, [sp, #12] Lloh6: adrp x1, l_.str@PAGE Lloh7: add x1, x1, l_.str@PAGEOFF add x0, sp, #128 stp w22, w21, [sp, #4] str w23, [sp] mov x3, x26 mov x4, x2 mov x5, x26 mov x6, x25 mov x7, x24 bl _sprintf Lloh8: adrp x19, _monitor@GOTPAGE Lloh9: ldr x19, [x19, _monitor@GOTPAGEOFF] ldr x8, [x19] ldr w1, [x8] Lloh10: adrp x0, l_.str.1@PAGE Lloh11: add x0, x0, l_.str.1@PAGEOFF add x2, sp, #128 bl _monitorTrace ldr x8, [x19] ldr w0, [x8] Lloh12: adrp x8, _dnodeMontiorInsertAcctCallback@GOTPAGE Lloh13: ldr x8, [x8, _dnodeMontiorInsertAcctCallback@GOTPAGEOFF] Lloh14: ldr w2, [x8] Lloh15: adrp x3, l_.str.2@PAGE Lloh16: add x3, x3, l_.str.2@PAGEOFF add x1, sp, #128 bl _taos_query_a ldur x8, [x29, #-96] Lloh17: adrp x9, ___stack_chk_guard@GOTPAGE Lloh18: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh19: ldr x9, [x9] cmp x9, x8 b.ne LBB0_2 ; %bb.1: add sp, sp, #1168 ldp x29, x30, [sp, #80] ; 16-byte Folded Reload ldp x20, x19, [sp, #64] ; 16-byte Folded Reload ldp x22, x21, [sp, #48] ; 16-byte Folded Reload ldp x24, x23, [sp, #32] ; 16-byte Folded Reload ldp x26, x25, [sp, #16] ; 16-byte Folded Reload ldp x28, x27, [sp], #96 ; 16-byte Folded Reload ret LBB0_2: bl ___stack_chk_fail .loh AdrpLdrGotLdr Lloh17, Lloh18, Lloh19 .loh AdrpAdd Lloh15, Lloh16 .loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14 .loh AdrpAdd Lloh10, Lloh11 .loh AdrpLdrGot Lloh8, Lloh9 .loh AdrpAdd Lloh6, Lloh7 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "insert into %s.acct_%s using %s.acct tags('%s') values(now, %ld, %ld , %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %d)" .comm _tsMonitorDbName,8,3 ; @tsMonitorDbName l_.str.1: ; @.str.1 .asciz "monitor:%p, save account info, sql %s" .comm _monitor,8,3 ; @monitor .comm _dnodeMontiorInsertAcctCallback,4,2 ; @dnodeMontiorInsertAcctCallback l_.str.2: ; @.str.2 .asciz "account" .subsections_via_symbols
AnghaBench/TDengine/src/modules/monitor/src/extr_monitorSystem.c_monitorSaveAcctLog.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function nv50_display_destroy _nv50_display_destroy: ## @nv50_display_destroy .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rdi, %r14 callq _nv50_disp movq %rax, %rbx leaq 8(%rax), %rdi callq _nv50_core_del movq (%rbx), %rdi callq _nouveau_bo_unmap movq (%rbx), %rdi testq %rdi, %rdi je LBB0_2 ## %bb.1: callq _nouveau_bo_unpin LBB0_2: xorl %edi, %edi movq %rbx, %rsi callq _nouveau_bo_ref movq %r14, %rdi callq _nouveau_display movq $0, (%rax) movq %rbx, %rdi popq %rbx popq %r14 popq %rbp jmp _kfree ## TAILCALL .cfi_endproc ## -- End function .no_dead_strip _nv50_display_destroy .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function nv50_display_destroy _nv50_display_destroy: ; @nv50_display_destroy .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x20, x0 bl _nv50_disp mov x19, x0 add x0, x0, #8 bl _nv50_core_del ldr x0, [x19] bl _nouveau_bo_unmap ldr x0, [x19] cbz x0, LBB0_2 ; %bb.1: bl _nouveau_bo_unpin LBB0_2: mov x0, #0 mov x1, x19 bl _nouveau_bo_ref mov x0, x20 bl _nouveau_display str xzr, [x0] mov x0, x19 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _kfree .cfi_endproc ; -- End function .no_dead_strip _nv50_display_destroy .subsections_via_symbols
AnghaBench/linux/drivers/gpu/drm/nouveau/dispnv50/extr_disp.c_nv50_display_destroy.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _lengthOfLastWord ## -- Begin function lengthOfLastWord .p2align 4, 0x90 _lengthOfLastWord: ## @lengthOfLastWord .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 cmpb $0, (%rdi) je LBB0_1 ## %bb.2: movq %rdi, %r14 callq _strlen movq %rax, %rbx addq %r14, %rbx movq __DefaultRuneLocale@GOTPCREL(%rip), %r12 movl $16384, %r15d ## imm = 0x4000 jmp LBB0_3 .p2align 4, 0x90 LBB0_6: ## in Loop: Header=BB0_3 Depth=1 movl $16384, %esi ## imm = 0x4000 callq ___maskrune LBB0_7: ## in Loop: Header=BB0_3 Depth=1 decq %rbx testl %eax, %eax je LBB0_8 LBB0_3: ## =>This Inner Loop Header: Depth=1 cmpq %r14, %rbx jbe LBB0_8 ## %bb.4: ## in Loop: Header=BB0_3 Depth=1 movsbl -1(%rbx), %edi testl %edi, %edi js LBB0_6 ## %bb.5: ## in Loop: Header=BB0_3 Depth=1 movl %edi, %eax movl 60(%r12,%rax,4), %eax andl %r15d, %eax jmp LBB0_7 LBB0_8: movl %ebx, %eax subl %r14d, %eax incl %eax movl %eax, -44(%rbp) ## 4-byte Spill incq %rbx xorl %r15d, %r15d movl $16384, %r13d ## imm = 0x4000 .p2align 4, 0x90 LBB0_9: ## =>This Inner Loop Header: Depth=1 movsbl -1(%rbx), %edi testl %edi, %edi js LBB0_11 ## %bb.10: ## in Loop: Header=BB0_9 Depth=1 movl %edi, %eax movl 60(%r12,%rax,4), %eax andl %r13d, %eax testl %eax, %eax je LBB0_13 jmp LBB0_15 .p2align 4, 0x90 LBB0_11: ## in Loop: Header=BB0_9 Depth=1 movl $16384, %esi ## imm = 0x4000 callq ___maskrune testl %eax, %eax jne LBB0_15 LBB0_13: ## in Loop: Header=BB0_9 Depth=1 incl %r15d decq %rbx cmpq %r14, %rbx jne LBB0_9 ## %bb.14: movl -44(%rbp), %r15d ## 4-byte Reload jmp LBB0_15 LBB0_1: xorl %r15d, %r15d LBB0_15: movl %r15d, %eax addq $8, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _lengthOfLastWord ; -- Begin function lengthOfLastWord .p2align 2 _lengthOfLastWord: ; @lengthOfLastWord .cfi_startproc ; %bb.0: stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 ldrb w8, [x0] cbz w8, LBB0_12 ; %bb.1: mov x19, x0 bl _strlen add x22, x19, x0 Lloh0: adrp x21, __DefaultRuneLocale@GOTPAGE Lloh1: ldr x21, [x21, __DefaultRuneLocale@GOTPAGEOFF] b LBB0_3 LBB0_2: ; in Loop: Header=BB0_3 Depth=1 mov w1, #16384 bl ___maskrune cbz w0, LBB0_6 LBB0_3: ; =>This Inner Loop Header: Depth=1 cmp x22, x19 b.ls LBB0_6 ; %bb.4: ; in Loop: Header=BB0_3 Depth=1 ldrsb w0, [x22, #-1]! tbnz w0, #31, LBB0_2 ; %bb.5: ; in Loop: Header=BB0_3 Depth=1 add x8, x21, w0, uxtw #2 ldr w8, [x8, #60] and w0, w8, #0x4000 cbnz w0, LBB0_3 LBB0_6: mov w20, #0 sub w8, w22, w19 add w23, w8, #1 add x22, x22, #1 LBB0_7: ; =>This Inner Loop Header: Depth=1 ldursb w0, [x22, #-1] tbnz w0, #31, LBB0_9 ; %bb.8: ; in Loop: Header=BB0_7 Depth=1 add x8, x21, w0, uxtw #2 ldr w8, [x8, #60] and w0, w8, #0x4000 cbz w0, LBB0_10 b LBB0_13 LBB0_9: ; in Loop: Header=BB0_7 Depth=1 mov w1, #16384 bl ___maskrune cbnz w0, LBB0_13 LBB0_10: ; in Loop: Header=BB0_7 Depth=1 add w20, w20, #1 sub x22, x22, #1 cmp x22, x19 b.ne LBB0_7 ; %bb.11: mov x20, x23 b LBB0_13 LBB0_12: mov w20, #0 LBB0_13: mov x0, x20 ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload ldp x24, x23, [sp], #64 ; 16-byte Folded Reload ret .loh AdrpLdrGot Lloh0, Lloh1 .cfi_endproc ; -- End function .subsections_via_symbols
the_stack_data/1191989.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function ubi_get_compat _ubi_get_compat: ## @ubi_get_compat .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq _UBI_LAYOUT_VOLUME_ID@GOTPCREL(%rip), %rcx xorl %eax, %eax cmpl %esi, (%rcx) jne LBB0_2 ## %bb.1: movq _UBI_LAYOUT_VOLUME_COMPAT@GOTPCREL(%rip), %rax movl (%rax), %eax LBB0_2: popq %rbp retq .cfi_endproc ## -- End function .comm _UBI_LAYOUT_VOLUME_ID,4,2 ## @UBI_LAYOUT_VOLUME_ID .comm _UBI_LAYOUT_VOLUME_COMPAT,4,2 ## @UBI_LAYOUT_VOLUME_COMPAT .no_dead_strip _ubi_get_compat .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function ubi_get_compat _ubi_get_compat: ; @ubi_get_compat .cfi_startproc ; %bb.0: Lloh0: adrp x8, _UBI_LAYOUT_VOLUME_ID@GOTPAGE Lloh1: ldr x8, [x8, _UBI_LAYOUT_VOLUME_ID@GOTPAGEOFF] Lloh2: ldr w8, [x8] Lloh3: adrp x9, _UBI_LAYOUT_VOLUME_COMPAT@GOTPAGE Lloh4: ldr x9, [x9, _UBI_LAYOUT_VOLUME_COMPAT@GOTPAGEOFF] Lloh5: ldr w9, [x9] cmp w8, w1 csel w0, w9, wzr, eq ret .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _UBI_LAYOUT_VOLUME_ID,4,2 ; @UBI_LAYOUT_VOLUME_ID .comm _UBI_LAYOUT_VOLUME_COMPAT,4,2 ; @UBI_LAYOUT_VOLUME_COMPAT .no_dead_strip _ubi_get_compat .subsections_via_symbols
AnghaBench/fastsocket/kernel/drivers/mtd/ubi/extr_eba.c_ubi_get_compat.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function it930x_tuner_attach _it930x_tuner_attach: ## @it930x_tuner_attach .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdi, %rbx callq _adap_to_priv movq %rax, %r15 movq %rbx, %rdi callq _adap_to_d movq %rax, %r12 movq (%rax), %r14 movl (%rbx), %edx leaq L_.str(%rip), %rsi movq %r14, %rdi callq _dev_dbg leaq -48(%rbp), %r13 movq %r13, %rdi xorl %esi, %esi movl $8, %edx callq _memset movq 8(%rbx), %rax movl (%rax), %eax movl %eax, -44(%rbp) movq _it930x_addresses_table@GOTPCREL(%rip), %rax movq (%rax), %rax movq (%r15), %rcx movl 4(%rax,%rcx,8), %edx movl %edx, -48(%rbp) movl (%rax,%rcx,8), %edx movl 8(%r15), %r8d leaq L_.str.1(%rip), %rsi movq %r12, %rdi movq %r13, %rcx callq _af9035_add_i2c_dev movl %eax, %ebx testl %eax, %eax je LBB0_2 ## %bb.1: leaq L_.str.2(%rip), %rsi movq %r14, %rdi movl %ebx, %edx callq _dev_dbg LBB0_2: movl %ebx, %eax addq $8, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "adap->id=%d\n" .comm _it930x_addresses_table,8,3 ## @it930x_addresses_table L_.str.1: ## @.str.1 .asciz "si2157" L_.str.2: ## @.str.2 .asciz "failed=%d\n" .no_dead_strip _it930x_tuner_attach .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function it930x_tuner_attach _it930x_tuner_attach: ; @it930x_tuner_attach .cfi_startproc ; %bb.0: sub sp, sp, #64 .cfi_def_cfa_offset 64 stp x22, x21, [sp, #16] ; 16-byte Folded Spill stp x20, x19, [sp, #32] ; 16-byte Folded Spill stp x29, x30, [sp, #48] ; 16-byte Folded Spill add x29, sp, #48 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x20, x0 bl _adap_to_priv mov x21, x0 mov x0, x20 bl _adap_to_d mov x22, x0 ldr x19, [x0] ldr w2, [x20] Lloh0: adrp x1, l_.str@PAGE Lloh1: add x1, x1, l_.str@PAGEOFF mov x0, x19 bl _dev_dbg add x0, sp, #8 mov w1, #0 mov w2, #8 bl _memset ldr x8, [x20, #8] ldr w8, [x8] Lloh2: adrp x9, _it930x_addresses_table@GOTPAGE Lloh3: ldr x9, [x9, _it930x_addresses_table@GOTPAGEOFF] Lloh4: ldr x9, [x9] ldr x10, [x21] add x9, x9, x10, lsl #3 ldp w2, w10, [x9] stp w10, w8, [sp, #8] ldr w4, [x21, #8] Lloh5: adrp x1, l_.str.1@PAGE Lloh6: add x1, x1, l_.str.1@PAGEOFF add x3, sp, #8 mov x0, x22 bl _af9035_add_i2c_dev mov x20, x0 cbz w0, LBB0_2 ; %bb.1: Lloh7: adrp x1, l_.str.2@PAGE Lloh8: add x1, x1, l_.str.2@PAGEOFF mov x0, x19 mov x2, x20 bl _dev_dbg LBB0_2: mov x0, x20 ldp x29, x30, [sp, #48] ; 16-byte Folded Reload ldp x20, x19, [sp, #32] ; 16-byte Folded Reload ldp x22, x21, [sp, #16] ; 16-byte Folded Reload add sp, sp, #64 ret .loh AdrpAdd Lloh5, Lloh6 .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpAdd Lloh0, Lloh1 .loh AdrpAdd Lloh7, Lloh8 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "adap->id=%d\n" .comm _it930x_addresses_table,8,3 ; @it930x_addresses_table l_.str.1: ; @.str.1 .asciz "si2157" l_.str.2: ; @.str.2 .asciz "failed=%d\n" .no_dead_strip _it930x_tuner_attach .subsections_via_symbols
AnghaBench/linux/drivers/media/usb/dvb-usb-v2/extr_af9035.c_it930x_tuner_attach.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function exit_tfm _exit_tfm: ## @exit_tfm .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 callq _crypto_skcipher_ctx movq %rax, %rbx movl 4(%rax), %edi callq _crypto_free_skcipher movl (%rbx), %edi addq $8, %rsp popq %rbx popq %rbp jmp _crypto_free_cipher ## TAILCALL .cfi_endproc ## -- End function .no_dead_strip _exit_tfm .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function exit_tfm _exit_tfm: ; @exit_tfm .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 bl _crypto_skcipher_ctx mov x19, x0 ldr w0, [x0, #4] bl _crypto_free_skcipher ldr w0, [x19] ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _crypto_free_cipher .cfi_endproc ; -- End function .no_dead_strip _exit_tfm .subsections_via_symbols
AnghaBench/linux/crypto/extr_xts.c_exit_tfm.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function af9013_release _af9013_release: ## @af9013_release .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq (%rdi), %rdi popq %rbp jmp _kfree ## TAILCALL .cfi_endproc ## -- End function .no_dead_strip _af9013_release .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function af9013_release _af9013_release: ; @af9013_release .cfi_startproc ; %bb.0: ldr x0, [x0] b _kfree .cfi_endproc ; -- End function .no_dead_strip _af9013_release .subsections_via_symbols
AnghaBench/fastsocket/kernel/drivers/media/dvb/frontends/extr_af9013.c_af9013_release.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function parse_tunnel_attr _parse_tunnel_attr: ## @parse_tunnel_attr .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $72, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %r8, -48(%rbp) ## 8-byte Spill movq %rcx, -80(%rbp) ## 8-byte Spill movq %rdx, %r12 movq %rsi, %r15 movq %rdi, %r14 movq (%rdx), %rax movq %rax, -96(%rbp) ## 8-byte Spill movq _fte_match_param@GOTPCREL(%rip), %rax movl (%rax), %edi movq (%rsi), %rsi movq _outer_headers@GOTPCREL(%rip), %rbx movl (%rbx), %edx callq _MLX5_ADDR_OF movq %rax, %r13 movq _fte_match_param@GOTPCREL(%rip), %rax movl (%rax), %edi movq 8(%r15), %rsi movl (%rbx), %edx callq _MLX5_ADDR_OF movq %rax, %rbx movq %r12, %rdi callq _flow_cls_offload_flow_rule movq %rax, -72(%rbp) ## 8-byte Spill movq -48(%rbp), %rax ## 8-byte Reload movq %rax, (%rsp) movq -80(%rbp), %rdi ## 8-byte Reload movq %r13, %r8 movq %r14, %r13 movq %r14, %rsi movq %r15, %rdx movq %rbx, %r15 movq %r12, %rcx movq %r8, %r12 movq %rbx, %r9 callq _mlx5e_tc_tun_parse testl %eax, %eax je LBB0_2 ## %bb.1: movl %eax, %ebx leaq L_.str(%rip), %rsi movq -96(%rbp), %rdi ## 8-byte Reload callq _NL_SET_ERR_MSG_MOD jmp LBB0_13 LBB0_2: movq _FLOW_DISSECTOR_KEY_ENC_CONTROL@GOTPCREL(%rip), %rax movl (%rax), %esi movq -72(%rbp), %rdi ## 8-byte Reload callq _flow_rule_match_key testq %rax, %rax movq %r13, -80(%rbp) ## 8-byte Spill je LBB0_8 ## %bb.3: leaq -104(%rbp), %rsi movq -72(%rbp), %rdi ## 8-byte Reload callq _flow_rule_match_enc_control movq -104(%rbp), %rax movq (%rax), %rax movq _FLOW_DISSECTOR_KEY_IPV4_ADDRS@GOTPCREL(%rip), %rcx cmpq (%rcx), %rax jne LBB0_5 ## %bb.4: leaq -64(%rbp), %rsi movq -72(%rbp), %rdi ## 8-byte Reload callq _flow_rule_match_enc_ipv4_addrs movq %r15, -48(%rbp) ## 8-byte Spill movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r15 movl (%r15), %ebx movq _src_ipv4_src_ipv6@GOTPCREL(%rip), %rax movl 4(%rax), %r14d movq -56(%rbp), %rax movl 4(%rax), %edi callq _ntohl movl %ebx, %edi movq %r12, %r13 movq %r12, %rsi movl %r14d, %edx movl %eax, %ecx callq _MLX5_SET movl (%r15), %ebx movq _src_ipv4_src_ipv6@GOTPCREL(%rip), %rax movl 4(%rax), %r14d movq -64(%rbp), %rax movl 4(%rax), %edi callq _ntohl movl %ebx, %edi movq -48(%rbp), %rsi ## 8-byte Reload movl %r14d, %edx movl %eax, %ecx callq _MLX5_SET movl (%r15), %ebx movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax movl 4(%rax), %r14d movq -56(%rbp), %rax movl (%rax), %edi callq _ntohl movl %ebx, %edi movq %r12, %rsi movl %r14d, %edx movl %eax, %ecx callq _MLX5_SET movl (%r15), %ebx movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax movl 4(%rax), %r14d movq -64(%rbp), %rax movl (%rax), %edi callq _ntohl movl %ebx, %edi movq -48(%rbp), %rsi ## 8-byte Reload movl %r14d, %edx movl %eax, %ecx callq _MLX5_SET movl (%r15), %edi movq _ethertype@GOTPCREL(%rip), %rbx movl (%rbx), %edx movq %r12, %rsi callq _MLX5_SET_TO_ONES movl (%r15), %edi movq -48(%rbp), %r15 ## 8-byte Reload movl (%rbx), %edx movq _ETH_P_IP@GOTPCREL(%rip), %rax jmp LBB0_7 LBB0_5: movq _FLOW_DISSECTOR_KEY_IPV6_ADDRS@GOTPCREL(%rip), %rcx cmpq (%rcx), %rax jne LBB0_8 ## %bb.6: leaq -64(%rbp), %rsi movq -72(%rbp), %rdi ## 8-byte Reload callq _flow_rule_match_enc_ipv6_addrs movq %r15, -48(%rbp) ## 8-byte Spill movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %rax movl (%rax), %edi movq _src_ipv4_src_ipv6@GOTPCREL(%rip), %r13 movl (%r13), %edx movq %r12, %rsi callq _MLX5_ADDR_OF movq %rax, %r14 movq -56(%rbp), %rbx addq $4, %rbx movq _ipv6_layout@GOTPCREL(%rip), %rax movl (%rax), %edi movq %r12, -88(%rbp) ## 8-byte Spill movq _ipv6@GOTPCREL(%rip), %rax movl (%rax), %esi callq _MLX5_FLD_SZ_BYTES movq %r14, %rdi movq %rbx, %rsi movl %eax, %edx callq _memcpy movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r12 movl (%r12), %edi movl (%r13), %edx movq -48(%rbp), %rsi ## 8-byte Reload callq _MLX5_ADDR_OF movq %rax, %r14 movq -64(%rbp), %rbx addq $4, %rbx movq _ipv6_layout@GOTPCREL(%rip), %r15 movl (%r15), %edi movq _ipv6@GOTPCREL(%rip), %r13 movl (%r13), %esi callq _MLX5_FLD_SZ_BYTES movq %r14, %rdi movq %rbx, %rsi movl %eax, %edx callq _memcpy movl (%r12), %edi movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax movl (%rax), %edx movq -88(%rbp), %rsi ## 8-byte Reload callq _MLX5_ADDR_OF movq %rax, %rbx movq -56(%rbp), %r14 movl (%r15), %edi movl (%r13), %esi callq _MLX5_FLD_SZ_BYTES movq %rbx, %rdi movq %r14, %rsi movl %eax, %edx callq _memcpy movl (%r12), %edi movq %r12, %r15 movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax movl (%rax), %edx movq -48(%rbp), %rsi ## 8-byte Reload callq _MLX5_ADDR_OF movq %rax, %r13 movq -64(%rbp), %r14 movq _ipv6_layout@GOTPCREL(%rip), %rax movl (%rax), %edi movq _ipv6@GOTPCREL(%rip), %rax movl (%rax), %esi movq -88(%rbp), %rbx ## 8-byte Reload callq _MLX5_FLD_SZ_BYTES movq %r13, %rdi movq %r14, %rsi movl %eax, %edx callq _memcpy movl (%r12), %edi movq _ethertype@GOTPCREL(%rip), %r14 movl (%r14), %edx movq %rbx, %r12 movq %rbx, %rsi callq _MLX5_SET_TO_ONES movl (%r15), %edi movq -48(%rbp), %r15 ## 8-byte Reload movl (%r14), %edx movq _ETH_P_IPV6@GOTPCREL(%rip), %rax LBB0_7: movl (%rax), %ecx movq %r15, %rsi callq _MLX5_SET LBB0_8: movq _FLOW_DISSECTOR_KEY_ENC_IP@GOTPCREL(%rip), %rax movl (%rax), %esi movq -72(%rbp), %rdi ## 8-byte Reload callq _flow_rule_match_key testq %rax, %rax je LBB0_12 ## %bb.9: leaq -64(%rbp), %rsi movq -72(%rbp), %rdi ## 8-byte Reload callq _flow_rule_match_enc_ip movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r14 movl (%r14), %edi movq _ip_ecn@GOTPCREL(%rip), %r13 movl (%r13), %edx movq -64(%rbp), %rax movl (%rax), %ecx andl $3, %ecx movq %r12, %rbx movq %r12, %rsi callq _MLX5_SET movl (%r14), %edi movl (%r13), %edx movq -56(%rbp), %rax movl (%rax), %ecx andl $3, %ecx movq %r15, %rsi callq _MLX5_SET movl (%r14), %edi movq _ip_dscp@GOTPCREL(%rip), %r13 movl (%r13), %edx movq -64(%rbp), %rax movl (%rax), %ecx sarl $2, %ecx movq %r12, %rsi callq _MLX5_SET movl (%r14), %edi movl (%r13), %edx movq -56(%rbp), %rax movl (%rax), %ecx sarl $2, %ecx movq %r15, %rsi callq _MLX5_SET movl (%r14), %edi movq _ttl_hoplimit@GOTPCREL(%rip), %r13 movl (%r13), %edx movq -64(%rbp), %rax movl 4(%rax), %ecx movq %r12, %rsi callq _MLX5_SET movl (%r14), %edi movl (%r13), %edx movq -56(%rbp), %rax movl 4(%rax), %ecx movq %r15, %rsi callq _MLX5_SET movq -64(%rbp), %rax cmpl $0, 4(%rax) je LBB0_12 ## %bb.10: movq -80(%rbp), %rax ## 8-byte Reload movl 8(%rax), %edi movq _ft_field_support@GOTPCREL(%rip), %rax movl (%rax), %esi callq _MLX5_CAP_ESW_FLOWTABLE_FDB testl %eax, %eax je LBB0_11 LBB0_12: movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r13 movl (%r13), %edi movq _dmac_47_16@GOTPCREL(%rip), %r14 movl (%r14), %edx movq %r12, %rsi callq _MLX5_SET_TO_ONES movl (%r13), %edi movq _dmac_15_0@GOTPCREL(%rip), %rax movl (%rax), %edx movq %r12, %rsi callq _MLX5_SET_TO_ONES movl (%r13), %edi movl (%r14), %edx movq %r15, %rsi callq _MLX5_ADDR_OF movq -80(%rbp), %rcx ## 8-byte Reload movq (%rcx), %rcx movl (%rcx), %esi movq %rax, %rdi callq _ether_addr_copy movl (%r13), %edi movq _frag@GOTPCREL(%rip), %r14 movl (%r14), %edx movq %r12, %rsi movl $1, %ecx callq _MLX5_SET movl (%r13), %edi movl (%r14), %edx xorl %ebx, %ebx movq %r15, %rsi xorl %ecx, %ecx callq _MLX5_SET LBB0_13: movl %ebx, %eax addq $72, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB0_11: leaq L_.str.1(%rip), %rsi movq -96(%rbp), %rdi ## 8-byte Reload callq _NL_SET_ERR_MSG_MOD movq _EOPNOTSUPP@GOTPCREL(%rip), %rax xorl %ebx, %ebx subl (%rax), %ebx jmp LBB0_13 .cfi_endproc ## -- End function .comm _fte_match_param,4,2 ## @fte_match_param .comm _outer_headers,4,2 ## @outer_headers .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "failed to parse tunnel attributes" .comm _FLOW_DISSECTOR_KEY_ENC_CONTROL,4,2 ## @FLOW_DISSECTOR_KEY_ENC_CONTROL .comm _FLOW_DISSECTOR_KEY_IPV4_ADDRS,8,3 ## @FLOW_DISSECTOR_KEY_IPV4_ADDRS .comm _fte_match_set_lyr_2_4,4,2 ## @fte_match_set_lyr_2_4 .comm _src_ipv4_src_ipv6,8,2 ## @src_ipv4_src_ipv6 .comm _dst_ipv4_dst_ipv6,8,2 ## @dst_ipv4_dst_ipv6 .comm _ethertype,4,2 ## @ethertype .comm _ETH_P_IP,4,2 ## @ETH_P_IP .comm _FLOW_DISSECTOR_KEY_IPV6_ADDRS,8,3 ## @FLOW_DISSECTOR_KEY_IPV6_ADDRS .comm _ipv6_layout,4,2 ## @ipv6_layout .comm _ipv6,4,2 ## @ipv6 .comm _ETH_P_IPV6,4,2 ## @ETH_P_IPV6 .comm _FLOW_DISSECTOR_KEY_ENC_IP,4,2 ## @FLOW_DISSECTOR_KEY_ENC_IP .comm _ip_ecn,4,2 ## @ip_ecn .comm _ip_dscp,4,2 ## @ip_dscp .comm _ttl_hoplimit,4,2 ## @ttl_hoplimit .comm _ft_field_support,4,2 ## @ft_field_support L_.str.1: ## @.str.1 .asciz "Matching on TTL is not supported" .comm _EOPNOTSUPP,4,2 ## @EOPNOTSUPP .comm _dmac_47_16,4,2 ## @dmac_47_16 .comm _dmac_15_0,4,2 ## @dmac_15_0 .comm _frag,4,2 ## @frag .no_dead_strip _parse_tunnel_attr .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function parse_tunnel_attr _parse_tunnel_attr: ; @parse_tunnel_attr .cfi_startproc ; %bb.0: sub sp, sp, #128 .cfi_def_cfa_offset 128 stp x28, x27, [sp, #32] ; 16-byte Folded Spill stp x26, x25, [sp, #48] ; 16-byte Folded Spill stp x24, x23, [sp, #64] ; 16-byte Folded Spill stp x22, x21, [sp, #80] ; 16-byte Folded Spill stp x20, x19, [sp, #96] ; 16-byte Folded Spill stp x29, x30, [sp, #112] ; 16-byte Folded Spill add x29, sp, #112 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 .cfi_offset w25, -72 .cfi_offset w26, -80 .cfi_offset w27, -88 .cfi_offset w28, -96 mov x24, x4 mov x25, x3 mov x26, x2 mov x27, x1 mov x19, x0 ldr x22, [x2] Lloh0: adrp x21, _fte_match_param@GOTPAGE Lloh1: ldr x21, [x21, _fte_match_param@GOTPAGEOFF] ldr w0, [x21] ldr x1, [x1] Lloh2: adrp x23, _outer_headers@GOTPAGE Lloh3: ldr x23, [x23, _outer_headers@GOTPAGEOFF] ldr w2, [x23] bl _MLX5_ADDR_OF mov x20, x0 ldr w0, [x21] ldr x1, [x27, #8] ldr w2, [x23] bl _MLX5_ADDR_OF mov x21, x0 mov x0, x26 bl _flow_cls_offload_flow_rule mov x23, x0 mov x0, x25 mov x1, x19 mov x2, x27 mov x3, x26 mov x4, x20 mov x5, x21 mov x6, x24 bl _mlx5e_tc_tun_parse cbz w0, LBB0_2 ; %bb.1: mov x24, x0 Lloh4: adrp x1, l_.str@PAGE Lloh5: add x1, x1, l_.str@PAGEOFF mov x0, x22 bl _NL_SET_ERR_MSG_MOD b LBB0_12 LBB0_2: Lloh6: adrp x8, _FLOW_DISSECTOR_KEY_ENC_CONTROL@GOTPAGE Lloh7: ldr x8, [x8, _FLOW_DISSECTOR_KEY_ENC_CONTROL@GOTPAGEOFF] Lloh8: ldr w1, [x8] mov x0, x23 bl _flow_rule_match_key Lloh9: adrp x26, _fte_match_set_lyr_2_4@GOTPAGE Lloh10: ldr x26, [x26, _fte_match_set_lyr_2_4@GOTPAGEOFF] cbz x0, LBB0_8 ; %bb.3: add x1, sp, #24 mov x0, x23 bl _flow_rule_match_enc_control ldr x8, [sp, #24] ldr x8, [x8] Lloh11: adrp x9, _FLOW_DISSECTOR_KEY_IPV4_ADDRS@GOTPAGE Lloh12: ldr x9, [x9, _FLOW_DISSECTOR_KEY_IPV4_ADDRS@GOTPAGEOFF] Lloh13: ldr x9, [x9] cmp x8, x9 b.ne LBB0_5 ; %bb.4: add x1, sp, #8 mov x0, x23 bl _flow_rule_match_enc_ipv4_addrs ldr w24, [x26] Lloh14: adrp x27, _src_ipv4_src_ipv6@GOTPAGE Lloh15: ldr x27, [x27, _src_ipv4_src_ipv6@GOTPAGEOFF] ldr w25, [x27, #4] ldr x8, [sp, #16] ldr w0, [x8, #4] bl _ntohl mov x3, x0 mov x0, x24 mov x1, x20 mov x2, x25 bl _MLX5_SET ldr w24, [x26] ldr w25, [x27, #4] ldr x8, [sp, #8] ldr w0, [x8, #4] bl _ntohl mov x3, x0 mov x0, x24 mov x1, x21 mov x2, x25 bl _MLX5_SET ldr w24, [x26] Lloh16: adrp x27, _dst_ipv4_dst_ipv6@GOTPAGE Lloh17: ldr x27, [x27, _dst_ipv4_dst_ipv6@GOTPAGEOFF] ldr w25, [x27, #4] ldr x8, [sp, #16] ldr w0, [x8] bl _ntohl mov x3, x0 mov x0, x24 mov x1, x20 mov x2, x25 bl _MLX5_SET ldr w24, [x26] ldr w25, [x27, #4] ldr x8, [sp, #8] ldr w0, [x8] bl _ntohl mov x3, x0 mov x0, x24 mov x1, x21 mov x2, x25 bl _MLX5_SET ldr w0, [x26] Lloh18: adrp x24, _ethertype@GOTPAGE Lloh19: ldr x24, [x24, _ethertype@GOTPAGEOFF] ldr w2, [x24] mov x1, x20 bl _MLX5_SET_TO_ONES ldr w0, [x26] ldr w2, [x24] Lloh20: adrp x8, _ETH_P_IP@GOTPAGE Lloh21: ldr x8, [x8, _ETH_P_IP@GOTPAGEOFF] b LBB0_7 LBB0_5: Lloh22: adrp x9, _FLOW_DISSECTOR_KEY_IPV6_ADDRS@GOTPAGE Lloh23: ldr x9, [x9, _FLOW_DISSECTOR_KEY_IPV6_ADDRS@GOTPAGEOFF] Lloh24: ldr x9, [x9] cmp x8, x9 b.ne LBB0_8 ; %bb.6: add x1, sp, #8 mov x0, x23 bl _flow_rule_match_enc_ipv6_addrs ldr w0, [x26] Lloh25: adrp x8, _src_ipv4_src_ipv6@GOTPAGE Lloh26: ldr x8, [x8, _src_ipv4_src_ipv6@GOTPAGEOFF] Lloh27: ldr w2, [x8] mov x1, x20 bl _MLX5_ADDR_OF mov x24, x0 ldr x8, [sp, #16] add x25, x8, #4 Lloh28: adrp x28, _ipv6_layout@GOTPAGE Lloh29: ldr x28, [x28, _ipv6_layout@GOTPAGEOFF] ldr w0, [x28] Lloh30: adrp x27, _ipv6@GOTPAGE Lloh31: ldr x27, [x27, _ipv6@GOTPAGEOFF] ldr w1, [x27] bl _MLX5_FLD_SZ_BYTES mov x2, x0 mov x0, x24 mov x1, x25 bl _memcpy ldr w0, [x26] Lloh32: adrp x8, _src_ipv4_src_ipv6@GOTPAGE Lloh33: ldr x8, [x8, _src_ipv4_src_ipv6@GOTPAGEOFF] Lloh34: ldr w2, [x8] mov x1, x21 bl _MLX5_ADDR_OF mov x24, x0 ldr x8, [sp, #8] add x25, x8, #4 ldr w0, [x28] ldr w1, [x27] bl _MLX5_FLD_SZ_BYTES mov x2, x0 mov x0, x24 mov x1, x25 bl _memcpy ldr w0, [x26] Lloh35: adrp x8, _dst_ipv4_dst_ipv6@GOTPAGE Lloh36: ldr x8, [x8, _dst_ipv4_dst_ipv6@GOTPAGEOFF] Lloh37: ldr w2, [x8] mov x1, x20 bl _MLX5_ADDR_OF mov x24, x0 ldr x25, [sp, #16] ldr w0, [x28] ldr w1, [x27] bl _MLX5_FLD_SZ_BYTES mov x2, x0 mov x0, x24 mov x1, x25 bl _memcpy ldr w0, [x26] Lloh38: adrp x8, _dst_ipv4_dst_ipv6@GOTPAGE Lloh39: ldr x8, [x8, _dst_ipv4_dst_ipv6@GOTPAGEOFF] Lloh40: ldr w2, [x8] mov x1, x21 bl _MLX5_ADDR_OF mov x24, x0 ldr x25, [sp, #8] ldr w0, [x28] ldr w1, [x27] bl _MLX5_FLD_SZ_BYTES mov x2, x0 mov x0, x24 mov x1, x25 bl _memcpy ldr w0, [x26] Lloh41: adrp x24, _ethertype@GOTPAGE Lloh42: ldr x24, [x24, _ethertype@GOTPAGEOFF] ldr w2, [x24] mov x1, x20 bl _MLX5_SET_TO_ONES ldr w0, [x26] ldr w2, [x24] Lloh43: adrp x8, _ETH_P_IPV6@GOTPAGE Lloh44: ldr x8, [x8, _ETH_P_IPV6@GOTPAGEOFF] LBB0_7: ldr w3, [x8] mov x1, x21 bl _MLX5_SET LBB0_8: Lloh45: adrp x8, _FLOW_DISSECTOR_KEY_ENC_IP@GOTPAGE Lloh46: ldr x8, [x8, _FLOW_DISSECTOR_KEY_ENC_IP@GOTPAGEOFF] Lloh47: ldr w1, [x8] mov x0, x23 bl _flow_rule_match_key cbz x0, LBB0_11 ; %bb.9: add x1, sp, #8 mov x0, x23 bl _flow_rule_match_enc_ip ldr w0, [x26] Lloh48: adrp x23, _ip_ecn@GOTPAGE Lloh49: ldr x23, [x23, _ip_ecn@GOTPAGEOFF] ldr w2, [x23] ldr x8, [sp, #8] ldr w8, [x8] and w3, w8, #0x3 mov x1, x20 bl _MLX5_SET ldr w0, [x26] ldr w2, [x23] ldr x8, [sp, #16] ldr w8, [x8] and w3, w8, #0x3 mov x1, x21 bl _MLX5_SET ldr w0, [x26] Lloh50: adrp x23, _ip_dscp@GOTPAGE Lloh51: ldr x23, [x23, _ip_dscp@GOTPAGEOFF] ldr w2, [x23] ldr x8, [sp, #8] ldr w8, [x8] asr w3, w8, #2 mov x1, x20 bl _MLX5_SET ldr w0, [x26] ldr w2, [x23] ldr x8, [sp, #16] ldr w8, [x8] asr w3, w8, #2 mov x1, x21 bl _MLX5_SET ldr w0, [x26] Lloh52: adrp x23, _ttl_hoplimit@GOTPAGE Lloh53: ldr x23, [x23, _ttl_hoplimit@GOTPAGEOFF] ldr w2, [x23] ldr x8, [sp, #8] ldr w3, [x8, #4] mov x1, x20 bl _MLX5_SET ldr w0, [x26] ldr w2, [x23] ldr x8, [sp, #16] ldr w3, [x8, #4] mov x1, x21 bl _MLX5_SET ldr x8, [sp, #8] ldr w8, [x8, #4] cbz w8, LBB0_11 ; %bb.10: ldr w0, [x19, #8] Lloh54: adrp x8, _ft_field_support@GOTPAGE Lloh55: ldr x8, [x8, _ft_field_support@GOTPAGEOFF] Lloh56: ldr w1, [x8] bl _MLX5_CAP_ESW_FLOWTABLE_FDB cbz w0, LBB0_13 LBB0_11: ldr w0, [x26] Lloh57: adrp x22, _dmac_47_16@GOTPAGE Lloh58: ldr x22, [x22, _dmac_47_16@GOTPAGEOFF] ldr w2, [x22] mov x1, x20 bl _MLX5_SET_TO_ONES ldr w0, [x26] Lloh59: adrp x8, _dmac_15_0@GOTPAGE Lloh60: ldr x8, [x8, _dmac_15_0@GOTPAGEOFF] Lloh61: ldr w2, [x8] mov x1, x20 bl _MLX5_SET_TO_ONES ldr w0, [x26] ldr w2, [x22] mov x1, x21 bl _MLX5_ADDR_OF ldr x8, [x19] ldr w1, [x8] bl _ether_addr_copy ldr w0, [x26] Lloh62: adrp x19, _frag@GOTPAGE Lloh63: ldr x19, [x19, _frag@GOTPAGEOFF] ldr w2, [x19] mov x1, x20 mov w3, #1 bl _MLX5_SET ldr w0, [x26] ldr w2, [x19] mov x1, x21 mov w3, #0 bl _MLX5_SET mov w24, #0 LBB0_12: mov x0, x24 ldp x29, x30, [sp, #112] ; 16-byte Folded Reload ldp x20, x19, [sp, #96] ; 16-byte Folded Reload ldp x22, x21, [sp, #80] ; 16-byte Folded Reload ldp x24, x23, [sp, #64] ; 16-byte Folded Reload ldp x26, x25, [sp, #48] ; 16-byte Folded Reload ldp x28, x27, [sp, #32] ; 16-byte Folded Reload add sp, sp, #128 ret LBB0_13: Lloh64: adrp x1, l_.str.1@PAGE Lloh65: add x1, x1, l_.str.1@PAGEOFF mov x0, x22 bl _NL_SET_ERR_MSG_MOD Lloh66: adrp x8, _EOPNOTSUPP@GOTPAGE Lloh67: ldr x8, [x8, _EOPNOTSUPP@GOTPAGEOFF] Lloh68: ldr w8, [x8] neg w24, w8 b LBB0_12 .loh AdrpLdrGot Lloh2, Lloh3 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpAdd Lloh4, Lloh5 .loh AdrpLdrGot Lloh9, Lloh10 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGot Lloh20, Lloh21 .loh AdrpLdrGot Lloh18, Lloh19 .loh AdrpLdrGot Lloh16, Lloh17 .loh AdrpLdrGot Lloh14, Lloh15 .loh AdrpLdrGotLdr Lloh22, Lloh23, Lloh24 .loh AdrpLdrGot Lloh43, Lloh44 .loh AdrpLdrGot Lloh41, Lloh42 .loh AdrpLdrGotLdr Lloh38, Lloh39, Lloh40 .loh AdrpLdrGotLdr Lloh35, Lloh36, Lloh37 .loh AdrpLdrGotLdr Lloh32, Lloh33, Lloh34 .loh AdrpLdrGot Lloh30, Lloh31 .loh AdrpLdrGot Lloh28, Lloh29 .loh AdrpLdrGotLdr Lloh25, Lloh26, Lloh27 .loh AdrpLdrGotLdr Lloh45, Lloh46, Lloh47 .loh AdrpLdrGot Lloh52, Lloh53 .loh AdrpLdrGot Lloh50, Lloh51 .loh AdrpLdrGot Lloh48, Lloh49 .loh AdrpLdrGotLdr Lloh54, Lloh55, Lloh56 .loh AdrpLdrGot Lloh62, Lloh63 .loh AdrpLdrGotLdr Lloh59, Lloh60, Lloh61 .loh AdrpLdrGot Lloh57, Lloh58 .loh AdrpLdrGotLdr Lloh66, Lloh67, Lloh68 .loh AdrpAdd Lloh64, Lloh65 .cfi_endproc ; -- End function .comm _fte_match_param,4,2 ; @fte_match_param .comm _outer_headers,4,2 ; @outer_headers .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "failed to parse tunnel attributes" .comm _FLOW_DISSECTOR_KEY_ENC_CONTROL,4,2 ; @FLOW_DISSECTOR_KEY_ENC_CONTROL .comm _FLOW_DISSECTOR_KEY_IPV4_ADDRS,8,3 ; @FLOW_DISSECTOR_KEY_IPV4_ADDRS .comm _fte_match_set_lyr_2_4,4,2 ; @fte_match_set_lyr_2_4 .comm _src_ipv4_src_ipv6,8,2 ; @src_ipv4_src_ipv6 .comm _dst_ipv4_dst_ipv6,8,2 ; @dst_ipv4_dst_ipv6 .comm _ethertype,4,2 ; @ethertype .comm _ETH_P_IP,4,2 ; @ETH_P_IP .comm _FLOW_DISSECTOR_KEY_IPV6_ADDRS,8,3 ; @FLOW_DISSECTOR_KEY_IPV6_ADDRS .comm _ipv6_layout,4,2 ; @ipv6_layout .comm _ipv6,4,2 ; @ipv6 .comm _ETH_P_IPV6,4,2 ; @ETH_P_IPV6 .comm _FLOW_DISSECTOR_KEY_ENC_IP,4,2 ; @FLOW_DISSECTOR_KEY_ENC_IP .comm _ip_ecn,4,2 ; @ip_ecn .comm _ip_dscp,4,2 ; @ip_dscp .comm _ttl_hoplimit,4,2 ; @ttl_hoplimit .comm _ft_field_support,4,2 ; @ft_field_support l_.str.1: ; @.str.1 .asciz "Matching on TTL is not supported" .comm _EOPNOTSUPP,4,2 ; @EOPNOTSUPP .comm _dmac_47_16,4,2 ; @dmac_47_16 .comm _dmac_15_0,4,2 ; @dmac_15_0 .comm _frag,4,2 ; @frag .no_dead_strip _parse_tunnel_attr .subsections_via_symbols
AnghaBench/linux/drivers/net/ethernet/mellanox/mlx5/core/extr_en_tc.c_parse_tunnel_attr.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function ov9650_set_blue_balance _ov9650_set_blue_balance: ## @ov9650_set_blue_balance .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movl %esi, %ebx movq %rdi, %r14 movq _D_CONF@GOTPCREL(%rip), %rax movl (%rax), %esi leaq L_.str(%rip), %rdx movl %ebx, %ecx callq _gspca_dbg movzbl %bl, %eax movl %eax, -20(%rbp) movq _OV9650_BLUE@GOTPCREL(%rip), %rax movl (%rax), %esi leaq -20(%rbp), %rdx movq %r14, %rdi movl $1, %ecx callq _m5602_write_sensor addq $16, %rsp popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .comm _D_CONF,4,2 ## @D_CONF .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Set blue gain to %d\n" .comm _OV9650_BLUE,4,2 ## @OV9650_BLUE .no_dead_strip _ov9650_set_blue_balance .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function ov9650_set_blue_balance _ov9650_set_blue_balance: ; @ov9650_set_blue_balance .cfi_startproc ; %bb.0: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x1 mov x20, x0 Lloh0: adrp x8, _D_CONF@GOTPAGE Lloh1: ldr x8, [x8, _D_CONF@GOTPAGEOFF] Lloh2: ldr w1, [x8] Lloh3: adrp x2, l_.str@PAGE Lloh4: add x2, x2, l_.str@PAGEOFF mov x3, x19 bl _gspca_dbg and w8, w19, #0xff str w8, [sp, #12] Lloh5: adrp x8, _OV9650_BLUE@GOTPAGE Lloh6: ldr x8, [x8, _OV9650_BLUE@GOTPAGEOFF] Lloh7: ldr w1, [x8] add x2, sp, #12 mov x0, x20 mov w3, #1 bl _m5602_write_sensor ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload add sp, sp, #48 ret .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _D_CONF,4,2 ; @D_CONF .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Set blue gain to %d\n" .comm _OV9650_BLUE,4,2 ; @OV9650_BLUE .no_dead_strip _ov9650_set_blue_balance .subsections_via_symbols
AnghaBench/linux/drivers/media/usb/gspca/m5602/extr_m5602_ov9650.c_ov9650_set_blue_balance.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _e1000_phy_force_speed_duplex_82577 ## -- Begin function e1000_phy_force_speed_duplex_82577 .p2align 4, 0x90 _e1000_phy_force_speed_duplex_82577: ## @e1000_phy_force_speed_duplex_82577 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rdi, %rbx movq _MII_BMCR@GOTPCREL(%rip), %r14 movl (%r14), %esi leaq -24(%rbp), %rdx callq _e1e_rphy testq %rax, %rax jne LBB0_8 ## %bb.1: leaq -24(%rbp), %rsi movq %rbx, %rdi callq _e1000e_phy_force_speed_duplex_setup movl (%r14), %esi movl -24(%rbp), %edx movq %rbx, %rdi callq _e1e_wphy testq %rax, %rax je LBB0_2 LBB0_8: addq $16, %rsp popq %rbx popq %r14 popq %rbp retq LBB0_2: movl $1, %edi callq _udelay cmpq $0, (%rbx) je LBB0_3 ## %bb.4: leaq L_.str(%rip), %rdi callq _e_dbg movq _PHY_FORCE_LIMIT@GOTPCREL(%rip), %r14 movl (%r14), %esi leaq -20(%rbp), %rcx movq %rbx, %rdi movl $100000, %edx ## imm = 0x186A0 callq _e1000e_phy_has_link_generic testq %rax, %rax jne LBB0_8 ## %bb.5: cmpl $0, -20(%rbp) jne LBB0_7 ## %bb.6: leaq L_.str.1(%rip), %rdi callq _e_dbg LBB0_7: movl (%r14), %esi leaq -20(%rbp), %rcx movq %rbx, %rdi movl $100000, %edx ## imm = 0x186A0 callq _e1000e_phy_has_link_generic jmp LBB0_8 LBB0_3: xorl %eax, %eax jmp LBB0_8 .cfi_endproc ## -- End function .comm _MII_BMCR,4,2 ## @MII_BMCR .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Waiting for forced speed/duplex link on 82577 phy\n" .comm _PHY_FORCE_LIMIT,4,2 ## @PHY_FORCE_LIMIT L_.str.1: ## @.str.1 .asciz "Link taking longer than expected.\n" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _e1000_phy_force_speed_duplex_82577 ; -- Begin function e1000_phy_force_speed_duplex_82577 .p2align 2 _e1000_phy_force_speed_duplex_82577: ; @e1000_phy_force_speed_duplex_82577 .cfi_startproc ; %bb.0: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x0 Lloh0: adrp x20, _MII_BMCR@GOTPAGE Lloh1: ldr x20, [x20, _MII_BMCR@GOTPAGEOFF] ldr w1, [x20] add x2, sp, #12 bl _e1e_rphy cbnz x0, LBB0_2 ; %bb.1: add x1, sp, #12 mov x0, x19 bl _e1000e_phy_force_speed_duplex_setup ldr w1, [x20] ldr w2, [sp, #12] mov x0, x19 bl _e1e_wphy cbz x0, LBB0_3 LBB0_2: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload add sp, sp, #48 ret LBB0_3: mov w0, #1 bl _udelay ldr x8, [x19] cbz x8, LBB0_8 ; %bb.4: Lloh2: adrp x0, l_.str@PAGE Lloh3: add x0, x0, l_.str@PAGEOFF bl _e_dbg Lloh4: adrp x20, _PHY_FORCE_LIMIT@GOTPAGE Lloh5: ldr x20, [x20, _PHY_FORCE_LIMIT@GOTPAGEOFF] ldr w1, [x20] add x3, sp, #8 mov x0, x19 mov w2, #34464 movk w2, #1, lsl #16 bl _e1000e_phy_has_link_generic cbnz x0, LBB0_2 ; %bb.5: ldr w8, [sp, #8] cbnz w8, LBB0_7 ; %bb.6: Lloh6: adrp x0, l_.str.1@PAGE Lloh7: add x0, x0, l_.str.1@PAGEOFF bl _e_dbg LBB0_7: ldr w1, [x20] add x3, sp, #8 mov x0, x19 mov w2, #34464 movk w2, #1, lsl #16 bl _e1000e_phy_has_link_generic b LBB0_2 LBB0_8: mov x0, #0 b LBB0_2 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpLdrGot Lloh4, Lloh5 .loh AdrpAdd Lloh2, Lloh3 .loh AdrpAdd Lloh6, Lloh7 .cfi_endproc ; -- End function .comm _MII_BMCR,4,2 ; @MII_BMCR .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Waiting for forced speed/duplex link on 82577 phy\n" .comm _PHY_FORCE_LIMIT,4,2 ; @PHY_FORCE_LIMIT l_.str.1: ; @.str.1 .asciz "Link taking longer than expected.\n" .subsections_via_symbols
AnghaBench/linux/drivers/net/ethernet/intel/e1000e/extr_phy.c_e1000_phy_force_speed_duplex_82577.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function sha256_finish_ctx _sha256_finish_ctx: ## @sha256_finish_ctx .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rsi, %r14 movq %rdi, %r15 movslq (%rdi), %r12 movq 8(%rdi), %rax movl (%rax), %ecx leal (%rcx,%r12), %edx movl %edx, (%rax) testl %ecx, %ecx jns LBB0_2 ## %bb.1: incl 4(%rax) LBB0_2: xorl %eax, %eax cmpl $56, %r12d setge %al shll $6, %eax subl %r12d, %eax addl $56, %eax movslq %eax, %rbx leaq (,%r12,4), %rdi addq 24(%r15), %rdi movq _fillbuf@GOTPCREL(%rip), %rax movl (%rax), %esi movq %rbx, %rdx callq _memcpy movq 8(%r15), %rax movl (%rax), %edi shll $3, %edi callq _SWAP movq 24(%r15), %rcx addq %r12, %rbx movl %eax, 16(%rcx,%rbx,4) movq 8(%r15), %rax movl (%rax), %edi movl 4(%rax), %eax shll $3, %eax sarl $29, %edi orl %eax, %edi callq _SWAP movq 24(%r15), %rdi movl %eax, (%rdi,%rbx,4) addl $8, %ebx movl %ebx, %esi movq %r15, %rdx callq _sha256_process_block movq 16(%r15), %rax movl (%rax), %edi callq _SWAP movl %eax, (%r14) movq 16(%r15), %rax movl 4(%rax), %edi callq _SWAP movl %eax, 4(%r14) movq 16(%r15), %rax movl 8(%rax), %edi callq _SWAP movl %eax, 8(%r14) movq 16(%r15), %rax movl 12(%rax), %edi callq _SWAP movl %eax, 12(%r14) movq 16(%r15), %rax movl 16(%rax), %edi callq _SWAP movl %eax, 16(%r14) movq 16(%r15), %rax movl 20(%rax), %edi callq _SWAP movl %eax, 20(%r14) movq 16(%r15), %rax movl 24(%rax), %edi callq _SWAP movl %eax, 24(%r14) movq 16(%r15), %rax movl 28(%rax), %edi callq _SWAP movl %eax, 28(%r14) movq %r14, %rax popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _fillbuf,4,2 ## @fillbuf .no_dead_strip _sha256_finish_ctx .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function sha256_finish_ctx _sha256_finish_ctx: ; @sha256_finish_ctx .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x19, x1 mov x20, x0 ldrsw x22, [x0] ldr x8, [x0, #8] ldr w9, [x8] add w10, w9, w22 str w10, [x8] tbz w9, #31, LBB0_2 ; %bb.1: ldr w9, [x8, #4] add w9, w9, #1 str w9, [x8, #4] LBB0_2: mov w8, #120 mov w9, #56 cmp w22, #56 csel w8, w9, w8, lt sub w8, w8, w22 sxtw x21, w8 ldr x8, [x20, #24] add x0, x8, x22, lsl #2 Lloh0: adrp x8, _fillbuf@GOTPAGE Lloh1: ldr x8, [x8, _fillbuf@GOTPAGEOFF] Lloh2: ldr w1, [x8] mov x2, x21 bl _memcpy ldr x8, [x20, #8] ldr w8, [x8] lsl w0, w8, #3 bl _SWAP ldr x8, [x20, #24] add x21, x21, x22 lsl x22, x21, #2 add x8, x22, x8 str w0, [x8, #16] ldr x8, [x20, #8] ldp w8, w9, [x8] asr w8, w8, #29 orr w0, w8, w9, lsl #3 bl _SWAP ldr x8, [x20, #24] str w0, [x8, x22] add w1, w21, #8 mov x0, x8 mov x2, x20 bl _sha256_process_block ldr x8, [x20, #16] ldr w0, [x8] bl _SWAP str w0, [x19] ldr x8, [x20, #16] ldr w0, [x8, #4] bl _SWAP str w0, [x19, #4] ldr x8, [x20, #16] ldr w0, [x8, #8] bl _SWAP str w0, [x19, #8] ldr x8, [x20, #16] ldr w0, [x8, #12] bl _SWAP str w0, [x19, #12] ldr x8, [x20, #16] ldr w0, [x8, #16] bl _SWAP str w0, [x19, #16] ldr x8, [x20, #16] ldr w0, [x8, #20] bl _SWAP str w0, [x19, #20] ldr x8, [x20, #16] ldr w0, [x8, #24] bl _SWAP str w0, [x19, #24] ldr x8, [x20, #16] ldr w0, [x8, #28] bl _SWAP str w0, [x19, #28] mov x0, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _fillbuf,4,2 ; @fillbuf .no_dead_strip _sha256_finish_ctx .subsections_via_symbols
AnghaBench/php-src/ext/standard/extr_crypt_sha256.c_sha256_finish_ctx.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _kernel2_main ## -- Begin function kernel2_main .p2align 4, 0x90 _kernel2_main: ## @kernel2_main .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movl $115200, %edi ## imm = 0x1C200 callq _uart_init movq _putc@GOTPCREL(%rip), %rax movl (%rax), %esi xorl %edi, %edi callq _init_printf xorl %eax, %eax callq _get_el leaq L_.str(%rip), %rdi movl %eax, %esi popq %rbp jmp _printf ## TAILCALL .cfi_endproc ## -- End function .comm _putc,4,2 ## @putc .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "current EL:%d\r\n" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _kernel2_main ; -- Begin function kernel2_main .p2align 2 _kernel2_main: ; @kernel2_main .cfi_startproc ; %bb.0: stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill .cfi_def_cfa_offset 16 mov x29, sp .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 mov w0, #49664 movk w0, #1, lsl #16 bl _uart_init Lloh0: adrp x8, _putc@GOTPAGE Lloh1: ldr x8, [x8, _putc@GOTPAGEOFF] Lloh2: ldr w1, [x8] mov w0, #0 bl _init_printf bl _get_el mov x1, x0 Lloh3: adrp x0, l_.str@PAGE Lloh4: add x0, x0, l_.str@PAGEOFF ldp x29, x30, [sp], #16 ; 16-byte Folded Reload b _printf .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _putc,4,2 ; @putc .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "current EL:%d\r\n" .subsections_via_symbols
AnghaBench/raspberry-pi-os/exercises/lesson02/1/gcrisis/src/extr_kernel.c_kernel2_main.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _btrfsic_submit_bh ## -- Begin function btrfsic_submit_bh .p2align 4, 0x90 _btrfsic_submit_bh: ## @btrfsic_submit_bh .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx pushq %rax .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdx, %r12 movl %esi, %r14d movl %edi, %r15d movq _btrfsic_is_initialized@GOTPCREL(%rip), %rax cmpl $0, (%rax) je LBB0_16 ## %bb.1: movq _btrfsic_mutex@GOTPCREL(%rip), %rdi callq _mutex_lock movq 24(%r12), %rax movl (%rax), %edi callq _btrfsic_dev_state_lookup movq %rax, %rbx testq %rax, %rax je LBB0_7 ## %bb.2: movq _REQ_OP_WRITE@GOTPCREL(%rip), %rax cmpl %r15d, (%rax) jne LBB0_7 ## %bb.3: movq (%r12), %r9 testq %r9, %r9 jle LBB0_7 ## %bb.4: movq _BTRFS_BDEV_BLOCKSIZE@GOTPCREL(%rip), %rax movslq 8(%r12), %rcx movl (%rax), %r13d imull %ecx, %r13d movq 80(%rbx), %rax movq _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPCREL(%rip), %rdx movl (%rdx), %edx testl %edx, (%rax) je LBB0_6 ## %bb.5: movl 32(%r12), %r10d leaq L_.str(%rip), %rdi movl %r15d, %esi movl %r14d, %edx movl %r13d, %r8d xorl %eax, %eax pushq 24(%r12) pushq %r10 callq _pr_info addq $16, %rsp LBB0_6: leaq 32(%r12), %rdx movq %rbx, %rdi movl %r13d, %esi movl $1, %ecx xorl %r8d, %r8d xorl %r9d, %r9d pushq %r14 pushq %r12 callq _btrfsic_process_written_block addq $16, %rsp jmp LBB0_15 LBB0_7: testq %rbx, %rbx je LBB0_15 ## %bb.8: movq _REQ_PREFLUSH@GOTPCREL(%rip), %rax testl %r14d, (%rax) je LBB0_15 ## %bb.9: movq 80(%rbx), %rax movq _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPCREL(%rip), %r13 movl (%r13), %ecx testl %ecx, (%rax) je LBB0_11 ## %bb.10: movq 24(%r12), %rcx leaq L_.str.1(%rip), %rdi movl %r15d, %esi movl %r14d, %edx xorl %eax, %eax callq _pr_info LBB0_11: cmpq $0, 64(%rbx) je LBB0_12 ## %bb.14: movq %rbx, %rax addq $8, %rax xorps %xmm0, %xmm0 movups %xmm0, 48(%rbx) movq $0, 64(%rbx) movq (%rbx), %rcx incq %rcx movq %rcx, 40(%rbx) movl %r14d, 8(%rbx) movq 16(%r12), %rcx movq %rcx, 32(%rbx) movl 12(%r12), %ecx movl %ecx, 24(%rbx) movq $0, 16(%rbx) movq %rax, 16(%r12) movq _btrfsic_bh_end_io@GOTPCREL(%rip), %rax movl (%rax), %eax movl %eax, 12(%r12) jmp LBB0_15 LBB0_12: movq 80(%rbx), %rax movq _BTRFSIC_PRINT_MASK_VERBOSE@GOTPCREL(%rip), %rcx movl (%rcx), %ecx orl (%r13), %ecx testl %ecx, (%rax) je LBB0_15 ## %bb.13: movl 72(%rbx), %esi leaq L_.str.2(%rip), %rdi xorl %eax, %eax callq _pr_info LBB0_15: movq _btrfsic_mutex@GOTPCREL(%rip), %rdi callq _mutex_unlock LBB0_16: movl %r15d, %edi movl %r14d, %esi movq %r12, %rdx addq $8, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp jmp _submit_bh ## TAILCALL .cfi_endproc ## -- End function .comm _btrfsic_is_initialized,4,2 ## @btrfsic_is_initialized .comm _btrfsic_mutex,4,2 ## @btrfsic_mutex .comm _REQ_OP_WRITE,4,2 ## @REQ_OP_WRITE .comm _BTRFS_BDEV_BLOCKSIZE,4,2 ## @BTRFS_BDEV_BLOCKSIZE .comm _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH,4,2 ## @BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "submit_bh(op=0x%x,0x%x, blocknr=%llu (bytenr %llu), size=%zu, data=%p, bdev=%p)\n" .comm _REQ_PREFLUSH,4,2 ## @REQ_PREFLUSH L_.str.1: ## @.str.1 .asciz "submit_bh(op=0x%x,0x%x FLUSH, bdev=%p)\n" .comm _BTRFSIC_PRINT_MASK_VERBOSE,4,2 ## @BTRFSIC_PRINT_MASK_VERBOSE L_.str.2: ## @.str.2 .asciz "btrfsic_submit_bh(%s) with FLUSH but dummy block already in use (ignored)!\n" .comm _btrfsic_bh_end_io,4,2 ## @btrfsic_bh_end_io .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _btrfsic_submit_bh ; -- Begin function btrfsic_submit_bh .p2align 2 _btrfsic_submit_bh: ; @btrfsic_submit_bh .cfi_startproc ; %bb.0: sub sp, sp, #112 .cfi_def_cfa_offset 112 stp x24, x23, [sp, #48] ; 16-byte Folded Spill stp x22, x21, [sp, #64] ; 16-byte Folded Spill stp x20, x19, [sp, #80] ; 16-byte Folded Spill stp x29, x30, [sp, #96] ; 16-byte Folded Spill add x29, sp, #96 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x19, x2 mov x20, x1 mov x21, x0 Lloh0: adrp x8, _btrfsic_is_initialized@GOTPAGE Lloh1: ldr x8, [x8, _btrfsic_is_initialized@GOTPAGEOFF] Lloh2: ldr w8, [x8] cbz w8, LBB0_15 ; %bb.1: Lloh3: adrp x0, _btrfsic_mutex@GOTPAGE Lloh4: ldr x0, [x0, _btrfsic_mutex@GOTPAGEOFF] bl _mutex_lock ldr x8, [x19, #24] ldr w0, [x8] bl _btrfsic_dev_state_lookup mov x22, x0 Lloh5: adrp x8, _REQ_OP_WRITE@GOTPAGE Lloh6: ldr x8, [x8, _REQ_OP_WRITE@GOTPAGEOFF] Lloh7: ldr w8, [x8] cmp x0, #0 ccmp w8, w21, #0, ne b.ne LBB0_6 ; %bb.2: ldr x8, [x19] cmp x8, #1 b.lt LBB0_6 ; %bb.3: Lloh8: adrp x9, _BTRFS_BDEV_BLOCKSIZE@GOTPAGE Lloh9: ldr x9, [x9, _BTRFS_BDEV_BLOCKSIZE@GOTPAGEOFF] Lloh10: ldr w10, [x9] ldrsw x9, [x19, #8] mul w23, w9, w10 ldr x10, [x22, #80] ldr w10, [x10] Lloh11: adrp x11, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGE Lloh12: ldr x11, [x11, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGEOFF] Lloh13: ldr w11, [x11] tst w11, w10 b.eq LBB0_5 ; %bb.4: ldr x10, [x19, #24] ldr w11, [x19, #32] stp x11, x10, [sp, #32] stp x23, x8, [sp, #16] stp x20, x9, [sp] Lloh14: adrp x0, l_.str@PAGE Lloh15: add x0, x0, l_.str@PAGEOFF mov x1, x21 bl _pr_info LBB0_5: add x2, x19, #32 mov x0, x22 mov x1, x23 mov w3, #1 mov x4, #0 mov x5, #0 mov x6, x19 mov x7, x20 bl _btrfsic_process_written_block b LBB0_14 LBB0_6: cbz x22, LBB0_14 ; %bb.7: Lloh16: adrp x8, _REQ_PREFLUSH@GOTPAGE Lloh17: ldr x8, [x8, _REQ_PREFLUSH@GOTPAGEOFF] Lloh18: ldr w8, [x8] tst w8, w20 b.eq LBB0_14 ; %bb.8: ldr x8, [x22, #80] ldr w8, [x8] Lloh19: adrp x23, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGE Lloh20: ldr x23, [x23, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGEOFF] ldr w9, [x23] tst w9, w8 b.eq LBB0_10 ; %bb.9: ldr x8, [x19, #24] mov x9, x20 stp x9, x8, [sp] Lloh21: adrp x0, l_.str.1@PAGE Lloh22: add x0, x0, l_.str.1@PAGEOFF mov x1, x21 bl _pr_info LBB0_10: ldr x8, [x22, #64] cbz x8, LBB0_12 ; %bb.11: stp xzr, xzr, [x22, #56] str xzr, [x22, #48] ldr x8, [x22] mov x9, x22 str w20, [x9, #8]! add x8, x8, #1 ldr x10, [x19, #16] stp x10, x8, [x22, #32] ldr w8, [x19, #12] str w8, [x22, #24] str xzr, [x22, #16] str x9, [x19, #16] Lloh23: adrp x8, _btrfsic_bh_end_io@GOTPAGE Lloh24: ldr x8, [x8, _btrfsic_bh_end_io@GOTPAGEOFF] Lloh25: ldr w8, [x8] str w8, [x19, #12] b LBB0_14 LBB0_12: ldr x8, [x22, #80] ldr w8, [x8] ldr w9, [x23] Lloh26: adrp x10, _BTRFSIC_PRINT_MASK_VERBOSE@GOTPAGE Lloh27: ldr x10, [x10, _BTRFSIC_PRINT_MASK_VERBOSE@GOTPAGEOFF] Lloh28: ldr w10, [x10] orr w9, w10, w9 tst w9, w8 b.eq LBB0_14 ; %bb.13: ldr w1, [x22, #72] Lloh29: adrp x0, l_.str.2@PAGE Lloh30: add x0, x0, l_.str.2@PAGEOFF bl _pr_info LBB0_14: Lloh31: adrp x0, _btrfsic_mutex@GOTPAGE Lloh32: ldr x0, [x0, _btrfsic_mutex@GOTPAGEOFF] bl _mutex_unlock LBB0_15: mov x0, x21 mov x1, x20 mov x2, x19 ldp x29, x30, [sp, #96] ; 16-byte Folded Reload ldp x20, x19, [sp, #80] ; 16-byte Folded Reload ldp x22, x21, [sp, #64] ; 16-byte Folded Reload ldp x24, x23, [sp, #48] ; 16-byte Folded Reload add sp, sp, #112 b _submit_bh .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .loh AdrpLdrGot Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10 .loh AdrpAdd Lloh14, Lloh15 .loh AdrpLdrGotLdr Lloh16, Lloh17, Lloh18 .loh AdrpLdrGot Lloh19, Lloh20 .loh AdrpAdd Lloh21, Lloh22 .loh AdrpLdrGotLdr Lloh23, Lloh24, Lloh25 .loh AdrpLdrGotLdr Lloh26, Lloh27, Lloh28 .loh AdrpAdd Lloh29, Lloh30 .loh AdrpLdrGot Lloh31, Lloh32 .cfi_endproc ; -- End function .comm _btrfsic_is_initialized,4,2 ; @btrfsic_is_initialized .comm _btrfsic_mutex,4,2 ; @btrfsic_mutex .comm _REQ_OP_WRITE,4,2 ; @REQ_OP_WRITE .comm _BTRFS_BDEV_BLOCKSIZE,4,2 ; @BTRFS_BDEV_BLOCKSIZE .comm _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH,4,2 ; @BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "submit_bh(op=0x%x,0x%x, blocknr=%llu (bytenr %llu), size=%zu, data=%p, bdev=%p)\n" .comm _REQ_PREFLUSH,4,2 ; @REQ_PREFLUSH l_.str.1: ; @.str.1 .asciz "submit_bh(op=0x%x,0x%x FLUSH, bdev=%p)\n" .comm _BTRFSIC_PRINT_MASK_VERBOSE,4,2 ; @BTRFSIC_PRINT_MASK_VERBOSE l_.str.2: ; @.str.2 .asciz "btrfsic_submit_bh(%s) with FLUSH but dummy block already in use (ignored)!\n" .comm _btrfsic_bh_end_io,4,2 ; @btrfsic_bh_end_io .subsections_via_symbols
AnghaBench/linux/fs/btrfs/extr_check-integrity.c_submit_bh.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function if_sdio_remove _if_sdio_remove: ## @if_sdio_remove .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movq %rdi, %r14 callq _sdio_get_drvdata movq %rax, %rbx movq %r14, %rdi callq _pm_runtime_get_noresume movq _user_rmmod@GOTPCREL(%rip), %rax cmpq $0, (%rax) je LBB0_4 ## %bb.1: movq (%rbx), %rax movq _MODEL_8688@GOTPCREL(%rip), %rcx cmpq (%rcx), %rax jne LBB0_4 ## %bb.2: leaq -24(%rbp), %r14 movq %r14, %rdi xorl %esi, %esi movl $4, %edx callq _memset leaq L_.str(%rip), %rdi callq _lbs_deb_sdio movl 28(%rbx), %edi movq _CMD_FUNC_SHUTDOWN@GOTPCREL(%rip), %rax movl (%rax), %esi movq _lbs_cmd_copyback@GOTPCREL(%rip), %rax movl (%rax), %r8d movq %r14, %rdx movl $4, %ecx movq %r14, %r9 callq ___lbs_cmd testq %rax, %rax je LBB0_4 ## %bb.3: leaq L_.str.1(%rip), %rdi callq _pr_alert LBB0_4: leaq L_.str.2(%rip), %rdi callq _lbs_deb_sdio movl 28(%rbx), %edi callq _lbs_stop_card movl 28(%rbx), %edi callq _lbs_remove_card movl 24(%rbx), %edi callq _destroy_workqueue .p2align 4, 0x90 LBB0_6: ## =>This Inner Loop Header: Depth=1 movq 16(%rbx), %rdi testq %rdi, %rdi je LBB0_7 ## %bb.5: ## in Loop: Header=BB0_6 Depth=1 movq 8(%rdi), %rax movq %rax, 16(%rbx) callq _kfree jmp LBB0_6 LBB0_7: movq %rbx, %rdi callq _kfree addq $16, %rsp popq %rbx popq %r14 popq %rbp retq .cfi_endproc ## -- End function .comm _user_rmmod,8,3 ## @user_rmmod .comm _MODEL_8688,8,3 ## @MODEL_8688 .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "send function SHUTDOWN command\n" .comm _CMD_FUNC_SHUTDOWN,4,2 ## @CMD_FUNC_SHUTDOWN .comm _lbs_cmd_copyback,4,2 ## @lbs_cmd_copyback L_.str.1: ## @.str.1 .asciz "CMD_FUNC_SHUTDOWN cmd failed\n" L_.str.2: ## @.str.2 .asciz "call remove card\n" .no_dead_strip _if_sdio_remove .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function if_sdio_remove _if_sdio_remove: ; @if_sdio_remove .cfi_startproc ; %bb.0: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x20, x0 bl _sdio_get_drvdata mov x19, x0 mov x0, x20 bl _pm_runtime_get_noresume Lloh0: adrp x8, _user_rmmod@GOTPAGE Lloh1: ldr x8, [x8, _user_rmmod@GOTPAGEOFF] Lloh2: ldr x8, [x8] cbz x8, LBB0_4 ; %bb.1: ldr x8, [x19] Lloh3: adrp x9, _MODEL_8688@GOTPAGE Lloh4: ldr x9, [x9, _MODEL_8688@GOTPAGEOFF] Lloh5: ldr x9, [x9] cmp x8, x9 b.ne LBB0_4 ; %bb.2: add x0, sp, #8 mov w1, #0 mov w2, #4 bl _memset Lloh6: adrp x0, l_.str@PAGE Lloh7: add x0, x0, l_.str@PAGEOFF bl _lbs_deb_sdio ldr w0, [x19, #28] Lloh8: adrp x8, _CMD_FUNC_SHUTDOWN@GOTPAGE Lloh9: ldr x8, [x8, _CMD_FUNC_SHUTDOWN@GOTPAGEOFF] Lloh10: ldr w1, [x8] Lloh11: adrp x8, _lbs_cmd_copyback@GOTPAGE Lloh12: ldr x8, [x8, _lbs_cmd_copyback@GOTPAGEOFF] Lloh13: ldr w4, [x8] add x2, sp, #8 add x5, sp, #8 mov w3, #4 bl ___lbs_cmd cbz x0, LBB0_4 ; %bb.3: Lloh14: adrp x0, l_.str.1@PAGE Lloh15: add x0, x0, l_.str.1@PAGEOFF bl _pr_alert LBB0_4: Lloh16: adrp x0, l_.str.2@PAGE Lloh17: add x0, x0, l_.str.2@PAGEOFF bl _lbs_deb_sdio ldr w0, [x19, #28] bl _lbs_stop_card ldr w0, [x19, #28] bl _lbs_remove_card ldr w0, [x19, #24] bl _destroy_workqueue ldr x0, [x19, #16] cbz x0, LBB0_6 LBB0_5: ; =>This Inner Loop Header: Depth=1 ldr x8, [x0, #8] str x8, [x19, #16] bl _kfree ldr x0, [x19, #16] cbnz x0, LBB0_5 LBB0_6: mov x0, x19 bl _kfree ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload add sp, sp, #48 ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10 .loh AdrpAdd Lloh6, Lloh7 .loh AdrpAdd Lloh14, Lloh15 .loh AdrpAdd Lloh16, Lloh17 .cfi_endproc ; -- End function .comm _user_rmmod,8,3 ; @user_rmmod .comm _MODEL_8688,8,3 ; @MODEL_8688 .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "send function SHUTDOWN command\n" .comm _CMD_FUNC_SHUTDOWN,4,2 ; @CMD_FUNC_SHUTDOWN .comm _lbs_cmd_copyback,4,2 ; @lbs_cmd_copyback l_.str.1: ; @.str.1 .asciz "CMD_FUNC_SHUTDOWN cmd failed\n" l_.str.2: ; @.str.2 .asciz "call remove card\n" .no_dead_strip _if_sdio_remove .subsections_via_symbols
AnghaBench/linux/drivers/net/wireless/marvell/libertas/extr_if_sdio.c_if_sdio_remove.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function sky2_flow _sky2_flow: ## @sky2_flow .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp testl %edi, %edi movq _FC_BOTH@GOTPCREL(%rip), %rax cmoveq _FC_TX@GOTPCREL(%rip), %rax movq _FC_RX@GOTPCREL(%rip), %rcx cmoveq _FC_NONE@GOTPCREL(%rip), %rcx testl %esi, %esi cmovneq %rax, %rcx movl (%rcx), %eax popq %rbp retq .cfi_endproc ## -- End function .comm _FC_BOTH,4,2 ## @FC_BOTH .comm _FC_RX,4,2 ## @FC_RX .comm _FC_TX,4,2 ## @FC_TX .comm _FC_NONE,4,2 ## @FC_NONE .no_dead_strip _sky2_flow .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function sky2_flow _sky2_flow: ; @sky2_flow .cfi_startproc ; %bb.0: Lloh0: adrp x8, _FC_TX@GOTPAGE Lloh1: ldr x8, [x8, _FC_TX@GOTPAGEOFF] Lloh2: adrp x9, _FC_BOTH@GOTPAGE Lloh3: ldr x9, [x9, _FC_BOTH@GOTPAGEOFF] cmp w0, #0 Lloh4: adrp x10, _FC_NONE@GOTPAGE Lloh5: ldr x10, [x10, _FC_NONE@GOTPAGEOFF] Lloh6: adrp x11, _FC_RX@GOTPAGE Lloh7: ldr x11, [x11, _FC_RX@GOTPAGEOFF] csel x8, x8, x9, eq csel x9, x10, x11, eq cmp w1, #0 csel x8, x9, x8, eq ldr w0, [x8] ret .loh AdrpLdrGot Lloh6, Lloh7 .loh AdrpLdrGot Lloh4, Lloh5 .loh AdrpLdrGot Lloh2, Lloh3 .loh AdrpLdrGot Lloh0, Lloh1 .cfi_endproc ; -- End function .comm _FC_BOTH,4,2 ; @FC_BOTH .comm _FC_RX,4,2 ; @FC_RX .comm _FC_TX,4,2 ; @FC_TX .comm _FC_NONE,4,2 ; @FC_NONE .no_dead_strip _sky2_flow .subsections_via_symbols
AnghaBench/linux/drivers/net/ethernet/marvell/extr_sky2.c_sky2_flow.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _same_symbol ## -- Begin function same_symbol .p2align 4, 0x90 _same_symbol: ## @same_symbol .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp cmpq %rsi, %rdi je LBB0_10 ## %bb.1: movq (%rdi), %rcx movq _MULTITERMINAL@GOTPCREL(%rip), %rdx xorl %eax, %eax cmpq (%rdx), %rcx jne LBB0_9 ## %bb.2: cmpq %rcx, (%rsi) jne LBB0_9 ## %bb.3: movl 8(%rdi), %ecx cmpl 8(%rsi), %ecx jne LBB0_9 ## %bb.4: testl %ecx, %ecx jle LBB0_10 ## %bb.5: movq 16(%rdi), %r8 movq 16(%rsi), %rsi xorl %eax, %eax xorl %edi, %edi .p2align 4, 0x90 LBB0_6: ## =>This Inner Loop Header: Depth=1 movq (%r8,%rdi,8), %rdx cmpq (%rsi,%rdi,8), %rdx jne LBB0_9 ## %bb.7: ## in Loop: Header=BB0_6 Depth=1 incq %rdi cmpq %rdi, %rcx jne LBB0_6 LBB0_10: movl $1, %eax LBB0_9: ## kill: def $eax killed $eax killed $rax popq %rbp retq .cfi_endproc ## -- End function .comm _MULTITERMINAL,8,3 ## @MULTITERMINAL .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _same_symbol ; -- Begin function same_symbol .p2align 2 _same_symbol: ; @same_symbol .cfi_startproc ; %bb.0: cmp x0, x1 b.eq LBB0_10 ; %bb.1: ldr x8, [x0] Lloh0: adrp x9, _MULTITERMINAL@GOTPAGE Lloh1: ldr x9, [x9, _MULTITERMINAL@GOTPAGEOFF] Lloh2: ldr x9, [x9] cmp x8, x9 b.ne LBB0_9 ; %bb.2: ldr x9, [x1] cmp x9, x8 b.ne LBB0_9 ; %bb.3: ldr w8, [x0, #8] ldr w9, [x1, #8] cmp w8, w9 b.ne LBB0_9 ; %bb.4: cmp w8, #1 b.lt LBB0_10 ; %bb.5: ldr x9, [x0, #16] ldr x10, [x1, #16] mov w0, #1 LBB0_6: ; =>This Inner Loop Header: Depth=1 ldr x11, [x9] ldr x12, [x10] cmp x11, x12 b.ne LBB0_9 ; %bb.7: ; in Loop: Header=BB0_6 Depth=1 add x10, x10, #8 add x9, x9, #8 subs x8, x8, #1 b.ne LBB0_6 ; %bb.8: ret LBB0_9: mov w0, #0 ret LBB0_10: mov w0, #1 ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _MULTITERMINAL,8,3 ; @MULTITERMINAL .subsections_via_symbols
AnghaBench/sqlcipher/tool/extr_lemon.c_same_symbol.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .section __TEXT,__literal4,4byte_literals .p2align 2 ## -- Begin function parallel_0 LCPI0_0: .long 0x00000000 ## float 0 .section __TEXT,__text,regular,pure_instructions .globl _parallel_0 .p2align 4, 0x90 _parallel_0: ## @parallel_0 .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movb $1, %r8b xorl %eax, %eax .p2align 4, 0x90 LBB0_1: ## =>This Inner Loop Header: Depth=1 movq %rax, %rcx shlq $9, %rcx movss 44(%rsi), %xmm13 ## xmm13 = mem[0],zero,zero,zero subss 44(%rdi,%rcx), %xmm13 movss 48(%rsi), %xmm14 ## xmm14 = mem[0],zero,zero,zero subss 48(%rdi,%rcx), %xmm14 movss 76(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero subss 76(%rdi,%rcx), %xmm9 movss 80(%rsi), %xmm8 ## xmm8 = mem[0],zero,zero,zero subss 80(%rdi,%rcx), %xmm8 movss 84(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 84(%rdi,%rcx), %xmm2 movss 88(%rsi), %xmm15 ## xmm15 = mem[0],zero,zero,zero subss 88(%rdi,%rcx), %xmm15 movss 108(%rsi), %xmm11 ## xmm11 = mem[0],zero,zero,zero subss 108(%rdi,%rcx), %xmm11 movss 112(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 112(%rdi,%rcx), %xmm3 movss 196(%rsi), %xmm12 ## xmm12 = mem[0],zero,zero,zero subss 196(%rdi,%rcx), %xmm12 movss 200(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero subss 200(%rdi,%rcx), %xmm6 movss 212(%rsi), %xmm10 ## xmm10 = mem[0],zero,zero,zero subss 212(%rdi,%rcx), %xmm10 movss 216(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 216(%rdi,%rcx), %xmm0 movss 252(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero subss 252(%rdi,%rcx), %xmm4 movss 256(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 256(%rdi,%rcx), %xmm1 movss 316(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero subss 316(%rdi,%rcx), %xmm7 movss 320(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 320(%rdi,%rcx), %xmm5 mulss %xmm3, %xmm3 mulss %xmm11, %xmm11 addss %xmm3, %xmm11 movss %xmm11, -24(%rbp) ## 4-byte Spill movss 380(%rsi), %xmm11 ## xmm11 = mem[0],zero,zero,zero subss 380(%rdi,%rcx), %xmm11 mulss %xmm15, %xmm15 mulss %xmm2, %xmm2 addss %xmm15, %xmm2 movss 384(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 384(%rdi,%rcx), %xmm3 mulss %xmm6, %xmm6 mulss %xmm12, %xmm12 addss %xmm6, %xmm12 movss 444(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero subss 444(%rdi,%rcx), %xmm6 mulss %xmm5, %xmm5 mulss %xmm7, %xmm7 addss %xmm5, %xmm7 movss %xmm7, -8(%rbp) ## 4-byte Spill movss 448(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 448(%rdi,%rcx), %xmm5 mulss %xmm3, %xmm3 mulss %xmm11, %xmm11 addss %xmm3, %xmm11 movss %xmm11, -40(%rbp) ## 4-byte Spill movss 452(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero subss 452(%rdi,%rcx), %xmm7 mulss %xmm5, %xmm5 mulss %xmm6, %xmm6 addss %xmm5, %xmm6 movss 456(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 456(%rdi,%rcx), %xmm3 mulss %xmm3, %xmm3 mulss %xmm7, %xmm7 addss %xmm3, %xmm7 movss 420(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 420(%rdi,%rcx), %xmm5 addss %xmm6, %xmm7 movss %xmm7, -52(%rbp) ## 4-byte Spill movss 424(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 424(%rdi,%rcx), %xmm3 mulss %xmm3, %xmm3 mulss %xmm5, %xmm5 addss %xmm3, %xmm5 movss %xmm5, -60(%rbp) ## 4-byte Spill movss 356(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 356(%rdi,%rcx), %xmm3 mulss %xmm1, %xmm1 mulss %xmm4, %xmm4 addss %xmm1, %xmm4 movss 360(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 360(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm3, %xmm3 addss %xmm1, %xmm3 movss 460(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 460(%rdi,%rcx), %xmm1 mulss %xmm0, %xmm0 mulss %xmm10, %xmm10 addss %xmm0, %xmm10 movss 464(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 464(%rdi,%rcx), %xmm0 mulss %xmm0, %xmm0 mulss %xmm1, %xmm1 addss %xmm0, %xmm1 movss %xmm1, -36(%rbp) ## 4-byte Spill movss 236(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 236(%rdi,%rcx), %xmm1 mulss %xmm8, %xmm8 mulss %xmm9, %xmm9 addss %xmm8, %xmm9 movss 240(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 240(%rdi,%rcx), %xmm0 addss %xmm2, %xmm9 movss %xmm9, -48(%rbp) ## 4-byte Spill movss 436(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 436(%rdi,%rcx), %xmm2 mulss %xmm0, %xmm0 mulss %xmm1, %xmm1 addss %xmm0, %xmm1 movss %xmm1, -56(%rbp) ## 4-byte Spill movss 440(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 440(%rdi,%rcx), %xmm0 mulss %xmm14, %xmm14 mulss %xmm13, %xmm13 addss %xmm14, %xmm13 movss 476(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero subss 476(%rdi,%rcx), %xmm9 mulss %xmm0, %xmm0 mulss %xmm2, %xmm2 addss %xmm0, %xmm2 movss %xmm2, -44(%rbp) ## 4-byte Spill movss 480(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 480(%rdi,%rcx), %xmm0 movss 500(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero subss 500(%rdi,%rcx), %xmm7 movss 504(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 504(%rdi,%rcx), %xmm1 mulss %xmm0, %xmm0 mulss %xmm9, %xmm9 addss %xmm0, %xmm9 mulss %xmm1, %xmm1 mulss %xmm7, %xmm7 addss %xmm1, %xmm7 movss 92(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 92(%rdi,%rcx), %xmm1 movss 96(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 96(%rdi,%rcx), %xmm0 mulss %xmm0, %xmm0 mulss %xmm1, %xmm1 addss %xmm0, %xmm1 movss %xmm1, -28(%rbp) ## 4-byte Spill movss 148(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 148(%rdi,%rcx), %xmm2 movss 152(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 152(%rdi,%rcx), %xmm1 movss 348(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 348(%rdi,%rcx), %xmm0 mulss %xmm1, %xmm1 mulss %xmm2, %xmm2 addss %xmm1, %xmm2 movss 352(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 352(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm0, %xmm0 addss %xmm1, %xmm0 addss %xmm3, %xmm0 movss 340(%rsi), %xmm15 ## xmm15 = mem[0],zero,zero,zero subss 340(%rdi,%rcx), %xmm15 movss 344(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 344(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm15, %xmm15 addss %xmm1, %xmm15 movss 52(%rsi), %xmm11 ## xmm11 = mem[0],zero,zero,zero subss 52(%rdi,%rcx), %xmm11 movss 56(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 56(%rdi,%rcx), %xmm1 movss 60(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 60(%rdi,%rcx), %xmm3 mulss %xmm1, %xmm1 mulss %xmm11, %xmm11 addss %xmm1, %xmm11 movss 64(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 64(%rdi,%rcx), %xmm1 addss %xmm13, %xmm11 mulss %xmm1, %xmm1 mulss %xmm3, %xmm3 addss %xmm1, %xmm3 movss %xmm3, -20(%rbp) ## 4-byte Spill movss 204(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 204(%rdi,%rcx), %xmm1 movss 208(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 208(%rdi,%rcx), %xmm3 mulss %xmm3, %xmm3 mulss %xmm1, %xmm1 addss %xmm3, %xmm1 movss 188(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 188(%rdi,%rcx), %xmm5 addss %xmm10, %xmm1 movss 192(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 192(%rdi,%rcx), %xmm3 mulss %xmm3, %xmm3 mulss %xmm5, %xmm5 addss %xmm3, %xmm5 addss %xmm12, %xmm5 addss %xmm1, %xmm5 movss %xmm5, -32(%rbp) ## 4-byte Spill movss 36(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 36(%rdi,%rcx), %xmm3 movss 40(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 40(%rdi,%rcx), %xmm1 movss 260(%rsi), %xmm10 ## xmm10 = mem[0],zero,zero,zero subss 260(%rdi,%rcx), %xmm10 mulss %xmm1, %xmm1 mulss %xmm3, %xmm3 addss %xmm1, %xmm3 movss %xmm3, -4(%rbp) ## 4-byte Spill movss 264(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 264(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm10, %xmm10 addss %xmm1, %xmm10 addss %xmm4, %xmm10 movss 372(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 372(%rdi,%rcx), %xmm3 movss 376(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 376(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm3, %xmm3 addss %xmm1, %xmm3 movss 300(%rsi), %xmm14 ## xmm14 = mem[0],zero,zero,zero subss 300(%rdi,%rcx), %xmm14 movss 396(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero subss 396(%rdi,%rcx), %xmm4 movss 400(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 400(%rdi,%rcx), %xmm5 mulss %xmm5, %xmm5 mulss %xmm4, %xmm4 addss %xmm5, %xmm4 movss 304(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 304(%rdi,%rcx), %xmm5 movss 404(%rsi), %xmm8 ## xmm8 = mem[0],zero,zero,zero subss 404(%rdi,%rcx), %xmm8 movss 408(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 408(%rdi,%rcx), %xmm1 mulss %xmm5, %xmm5 mulss %xmm14, %xmm14 addss %xmm5, %xmm14 mulss %xmm1, %xmm1 mulss %xmm8, %xmm8 addss %xmm1, %xmm8 addss %xmm4, %xmm8 movss 164(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero subss 164(%rdi,%rcx), %xmm4 movss 168(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 168(%rdi,%rcx), %xmm1 movss 308(%rsi), %xmm13 ## xmm13 = mem[0],zero,zero,zero subss 308(%rdi,%rcx), %xmm13 mulss %xmm1, %xmm1 mulss %xmm4, %xmm4 addss %xmm1, %xmm4 movss %xmm4, -16(%rbp) ## 4-byte Spill movss 312(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 312(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm13, %xmm13 addss %xmm1, %xmm13 addss %xmm14, %xmm13 movss 364(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero subss 364(%rdi,%rcx), %xmm4 movss 368(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 368(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm4, %xmm4 addss %xmm1, %xmm4 movss 140(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 140(%rdi,%rcx), %xmm5 addss %xmm3, %xmm4 movss 144(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 144(%rdi,%rcx), %xmm1 addss %xmm0, %xmm4 mulss %xmm1, %xmm1 mulss %xmm5, %xmm5 addss %xmm1, %xmm5 addss %xmm2, %xmm5 movss %xmm5, -12(%rbp) ## 4-byte Spill movss 324(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 324(%rdi,%rcx), %xmm1 movss 328(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 328(%rdi,%rcx), %xmm0 movss 484(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 484(%rdi,%rcx), %xmm2 mulss %xmm0, %xmm0 mulss %xmm1, %xmm1 addss %xmm0, %xmm1 movss 488(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 488(%rdi,%rcx), %xmm0 addss -8(%rbp), %xmm1 ## 4-byte Folded Reload mulss %xmm0, %xmm0 mulss %xmm2, %xmm2 addss %xmm0, %xmm2 addss %xmm9, %xmm2 movss 12(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 12(%rdi,%rcx), %xmm0 movss 16(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 16(%rdi,%rcx), %xmm3 movss 116(%rsi), %xmm12 ## xmm12 = mem[0],zero,zero,zero subss 116(%rdi,%rcx), %xmm12 mulss %xmm3, %xmm3 mulss %xmm0, %xmm0 addss %xmm3, %xmm0 movss 120(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 120(%rdi,%rcx), %xmm3 mulss %xmm3, %xmm3 mulss %xmm12, %xmm12 addss %xmm3, %xmm12 addss -24(%rbp), %xmm12 ## 4-byte Folded Reload movss 492(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero subss 492(%rdi,%rcx), %xmm6 movss 496(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 496(%rdi,%rcx), %xmm3 mulss %xmm3, %xmm3 mulss %xmm6, %xmm6 addss %xmm3, %xmm6 movss 20(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 20(%rdi,%rcx), %xmm3 addss %xmm7, %xmm6 movss 24(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero subss 24(%rdi,%rcx), %xmm7 addss %xmm2, %xmm6 mulss %xmm7, %xmm7 mulss %xmm3, %xmm3 addss %xmm7, %xmm3 addss %xmm0, %xmm3 movss 4(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 4(%rdi,%rcx), %xmm2 movss 276(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero subss 276(%rdi,%rcx), %xmm9 movss 280(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero subss 280(%rdi,%rcx), %xmm7 mulss %xmm7, %xmm7 mulss %xmm9, %xmm9 addss %xmm7, %xmm9 movss 8(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 8(%rdi,%rcx), %xmm0 movss 332(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero subss 332(%rdi,%rcx), %xmm7 movss 336(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 336(%rdi,%rcx), %xmm5 mulss %xmm0, %xmm0 mulss %xmm2, %xmm2 addss %xmm0, %xmm2 mulss %xmm5, %xmm5 mulss %xmm7, %xmm7 addss %xmm5, %xmm7 addss %xmm15, %xmm7 movss 172(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 172(%rdi,%rcx), %xmm0 addss %xmm1, %xmm7 movss 176(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 176(%rdi,%rcx), %xmm1 addss %xmm4, %xmm7 mulss %xmm1, %xmm1 mulss %xmm0, %xmm0 addss %xmm1, %xmm0 movss (%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss (%rdi,%rcx), %xmm1 movss 180(%rsi), %xmm14 ## xmm14 = mem[0],zero,zero,zero subss 180(%rdi,%rcx), %xmm14 mulss %xmm1, %xmm1 addss LCPI0_0(%rip), %xmm1 addss %xmm2, %xmm1 movss 184(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 184(%rdi,%rcx), %xmm2 addss %xmm3, %xmm1 mulss %xmm2, %xmm2 mulss %xmm14, %xmm14 addss %xmm2, %xmm14 addss %xmm0, %xmm14 movss 268(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 268(%rdi,%rcx), %xmm3 movss 272(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 272(%rdi,%rcx), %xmm0 mulss %xmm0, %xmm0 mulss %xmm3, %xmm3 addss %xmm0, %xmm3 addss %xmm9, %xmm3 addss %xmm10, %xmm3 movss 388(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero subss 388(%rdi,%rcx), %xmm9 movss 392(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 392(%rdi,%rcx), %xmm0 mulss %xmm0, %xmm0 mulss %xmm9, %xmm9 addss %xmm0, %xmm9 movss 28(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 28(%rdi,%rcx), %xmm0 addss -40(%rbp), %xmm9 ## 4-byte Folded Reload movss 32(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 32(%rdi,%rcx), %xmm2 addss %xmm8, %xmm9 mulss %xmm2, %xmm2 mulss %xmm0, %xmm0 addss %xmm2, %xmm0 addss -4(%rbp), %xmm0 ## 4-byte Folded Reload movss 132(%rsi), %xmm15 ## xmm15 = mem[0],zero,zero,zero subss 132(%rdi,%rcx), %xmm15 addss %xmm11, %xmm0 movss 136(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 136(%rdi,%rcx), %xmm2 addss %xmm1, %xmm0 mulss %xmm2, %xmm2 mulss %xmm15, %xmm15 addss %xmm2, %xmm15 movss 468(%rsi), %xmm8 ## xmm8 = mem[0],zero,zero,zero subss 468(%rdi,%rcx), %xmm8 movss 472(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 472(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm8, %xmm8 addss %xmm1, %xmm8 addss -36(%rbp), %xmm8 ## 4-byte Folded Reload addss -52(%rbp), %xmm8 ## 4-byte Folded Reload addss %xmm6, %xmm8 movss 292(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero subss 292(%rdi,%rcx), %xmm4 movss 296(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 296(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm4, %xmm4 addss %xmm1, %xmm4 movss 100(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 100(%rdi,%rcx), %xmm2 movss 220(%rsi), %xmm10 ## xmm10 = mem[0],zero,zero,zero subss 220(%rdi,%rcx), %xmm10 movss 224(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 224(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm10, %xmm10 addss %xmm1, %xmm10 movss 104(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 104(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm2, %xmm2 addss %xmm1, %xmm2 addss -28(%rbp), %xmm2 ## 4-byte Folded Reload addss %xmm12, %xmm2 movss 68(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 68(%rdi,%rcx), %xmm1 movss 72(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 72(%rdi,%rcx), %xmm5 mulss %xmm5, %xmm5 mulss %xmm1, %xmm1 addss %xmm5, %xmm1 addss -20(%rbp), %xmm1 ## 4-byte Folded Reload addss -48(%rbp), %xmm1 ## 4-byte Folded Reload addss %xmm2, %xmm1 movss 428(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero subss 428(%rdi,%rcx), %xmm2 addss %xmm0, %xmm1 movss 432(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 432(%rdi,%rcx), %xmm0 mulss %xmm0, %xmm0 mulss %xmm2, %xmm2 addss %xmm0, %xmm2 addss -44(%rbp), %xmm2 ## 4-byte Folded Reload movss 284(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero subss 284(%rdi,%rcx), %xmm5 movss 288(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 288(%rdi,%rcx), %xmm0 mulss %xmm0, %xmm0 mulss %xmm5, %xmm5 addss %xmm0, %xmm5 addss %xmm4, %xmm5 addss %xmm13, %xmm5 movss 228(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero subss 228(%rdi,%rcx), %xmm4 addss %xmm3, %xmm5 movss 232(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 232(%rdi,%rcx), %xmm3 addss %xmm7, %xmm5 movss 244(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 244(%rdi,%rcx), %xmm0 mulss %xmm3, %xmm3 mulss %xmm4, %xmm4 addss %xmm3, %xmm4 movss 248(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 248(%rdi,%rcx), %xmm3 addss %xmm10, %xmm4 mulss %xmm3, %xmm3 mulss %xmm0, %xmm0 addss %xmm3, %xmm0 addss -56(%rbp), %xmm0 ## 4-byte Folded Reload movss 156(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero subss 156(%rdi,%rcx), %xmm6 addss %xmm4, %xmm0 movss 160(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 160(%rdi,%rcx), %xmm3 addss -32(%rbp), %xmm0 ## 4-byte Folded Reload mulss %xmm3, %xmm3 mulss %xmm6, %xmm6 addss %xmm3, %xmm6 addss -16(%rbp), %xmm6 ## 4-byte Folded Reload movss 124(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero subss 124(%rdi,%rcx), %xmm3 addss %xmm14, %xmm6 movss 128(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero subss 128(%rdi,%rcx), %xmm4 mulss %xmm4, %xmm4 mulss %xmm3, %xmm3 addss %xmm4, %xmm3 addss %xmm15, %xmm3 addss -12(%rbp), %xmm3 ## 4-byte Folded Reload addss %xmm6, %xmm3 addss %xmm0, %xmm3 movss 412(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero subss 412(%rdi,%rcx), %xmm0 addss %xmm1, %xmm3 movss 416(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 416(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 mulss %xmm0, %xmm0 addss %xmm1, %xmm0 addss -60(%rbp), %xmm0 ## 4-byte Folded Reload addss %xmm2, %xmm0 addss %xmm9, %xmm0 addss %xmm8, %xmm0 addss %xmm5, %xmm0 addss %xmm3, %xmm0 movss 508(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero subss 508(%rdi,%rcx), %xmm1 mulss %xmm1, %xmm1 addss %xmm0, %xmm1 movss %xmm1, (%rdx,%rax,4) movl $1, %eax testb $1, %r8b movl $0, %r8d jne LBB0_1 ## %bb.2: popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__literal4,4byte_literals .p2align 2 ## -- Begin function epilogue LCPI1_0: .long 0x7f800000 ## float +Inf .section __TEXT,__text,regular,pure_instructions .globl _epilogue .p2align 4, 0x90 _epilogue: ## @epilogue .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp subq $32, %rsp movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -8(%rbp) movabsq $9187343241974906880, %rax ## imm = 0x7F8000007F800000 movq %rax, -16(%rbp) movw $514, -23(%rbp) ## imm = 0x202 movb $2, -21(%rbp) movss (%rdx), %xmm1 ## xmm1 = mem[0],zero,zero,zero movss LCPI1_0(%rip), %xmm0 ## xmm0 = mem[0],zero,zero,zero ucomiss %xmm1, %xmm0 leaq -23(%rbp), %rax cmovaq %rdi, %rax movb (%rax), %al minss %xmm0, %xmm1 movb %al, -23(%rbp) movss %xmm1, -20(%rbp) xorps %xmm2, %xmm2 maxss %xmm2, %xmm1 xorl %eax, %eax ucomiss %xmm1, %xmm0 seta %al movaps %xmm0, %xmm2 maxss %xmm1, %xmm2 movss 4(%rdx), %xmm1 ## xmm1 = mem[0],zero,zero,zero ucomiss %xmm1, %xmm2 jbe LBB1_1 ## %bb.2: leaq 1(%rdi), %rdx jmp LBB1_3 LBB1_1: leaq (%rax,%rbp), %rdx addq $-23, %rdx movss -20(%rbp,%rax,4), %xmm1 ## xmm1 = mem[0],zero,zero,zero LBB1_3: movb (%rdx), %r10b movss %xmm1, -20(%rbp,%rax,4) movss -20(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero movss -16(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero xorps %xmm3, %xmm3 maxss %xmm3, %xmm1 xorl %edx, %edx ucomiss %xmm1, %xmm2 seta %dl movb %r10b, -23(%rbp,%rax) maxss %xmm1, %xmm2 ucomiss %xmm2, %xmm0 movl $2, %eax cmovbeq %rdx, %rax maxss %xmm2, %xmm0 movss (%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero ucomiss %xmm1, %xmm0 jbe LBB1_4 ## %bb.5: leaq 2(%rdi), %rdx jmp LBB1_6 LBB1_4: leaq (%rax,%rbp), %rdx addq $-23, %rdx movss -20(%rbp,%rax,4), %xmm1 ## xmm1 = mem[0],zero,zero,zero LBB1_6: movb (%rdx), %dl movb %dl, -23(%rbp,%rax) movss %xmm1, -20(%rbp,%rax,4) movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero xorps %xmm2, %xmm2 maxss %xmm2, %xmm0 xorl %edx, %edx ucomiss %xmm0, %xmm1 seta %dl movss -12(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero maxss %xmm0, %xmm1 ucomiss %xmm1, %xmm2 movl $2, %eax cmovbeq %rdx, %rax maxss %xmm1, %xmm2 movss 4(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero ucomiss %xmm0, %xmm2 jbe LBB1_7 ## %bb.8: leaq 3(%rdi), %rdx jmp LBB1_9 LBB1_7: leaq (%rax,%rbp), %rdx addq $-23, %rdx movss -20(%rbp,%rax,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero LBB1_9: movb (%rdx), %dl movb %dl, -23(%rbp,%rax) movss %xmm0, -20(%rbp,%rax,4) movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero xorps %xmm2, %xmm2 maxss %xmm2, %xmm0 xorl %edx, %edx ucomiss %xmm0, %xmm1 seta %dl movss -12(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero maxss %xmm0, %xmm1 ucomiss %xmm1, %xmm2 movl $2, %eax cmovbeq %rdx, %rax maxss %xmm1, %xmm2 movss (%r8), %xmm0 ## xmm0 = mem[0],zero,zero,zero ucomiss %xmm0, %xmm2 jbe LBB1_10 ## %bb.11: leaq 4(%rdi), %rdx jmp LBB1_12 LBB1_10: leaq (%rax,%rbp), %rdx addq $-23, %rdx movss -20(%rbp,%rax,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero LBB1_12: movb (%rdx), %dl movb %dl, -23(%rbp,%rax) movss %xmm0, -20(%rbp,%rax,4) movss -20(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero movss -16(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero xorps %xmm0, %xmm0 maxss %xmm0, %xmm1 xorl %eax, %eax ucomiss %xmm1, %xmm2 movss -12(%rbp), %xmm3 ## xmm3 = mem[0],zero,zero,zero seta %al maxss %xmm1, %xmm2 ucomiss %xmm2, %xmm3 maxss %xmm2, %xmm3 movss 4(%r8), %xmm1 ## xmm1 = mem[0],zero,zero,zero movl $2, %r8d cmovaq %r8, %rax leaq 5(%rdi), %rdx ucomiss %xmm1, %xmm3 leaq -23(%rbp,%rax), %rsi cmovaq %rdx, %rsi movb (%rsi), %dl ja LBB1_14 ## %bb.13: movss -20(%rbp,%rax,4), %xmm1 ## xmm1 = mem[0],zero,zero,zero LBB1_14: movss %xmm1, -20(%rbp,%rax,4) movss -20(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero movss -16(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero maxss %xmm0, %xmm1 xorl %esi, %esi ucomiss %xmm1, %xmm2 seta %sil movss -12(%rbp), %xmm3 ## xmm3 = mem[0],zero,zero,zero maxss %xmm1, %xmm2 ucomiss %xmm2, %xmm3 movb %dl, -23(%rbp,%rax) cmovaq %r8, %rsi maxss %xmm2, %xmm3 movss (%rcx), %xmm0 ## xmm0 = mem[0],zero,zero,zero ucomiss %xmm0, %xmm3 jbe LBB1_15 ## %bb.16: leaq 6(%rdi), %rax jmp LBB1_17 LBB1_15: leaq (%rsi,%rbp), %rax addq $-23, %rax movss -20(%rbp,%rsi,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero LBB1_17: movb (%rax), %al movb %al, -23(%rbp,%rsi) movss %xmm0, -20(%rbp,%rsi,4) movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero xorps %xmm2, %xmm2 maxss %xmm2, %xmm0 xorl %edx, %edx ucomiss %xmm0, %xmm1 seta %dl movss -12(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero maxss %xmm0, %xmm1 ucomiss %xmm1, %xmm2 movl $2, %eax cmovbeq %rdx, %rax maxss %xmm1, %xmm2 movss 4(%rcx), %xmm0 ## xmm0 = mem[0],zero,zero,zero ucomiss %xmm0, %xmm2 jbe LBB1_18 ## %bb.19: addq $7, %rdi jmp LBB1_20 LBB1_18: leaq (%rax,%rbp), %rdi addq $-23, %rdi movss -20(%rbp,%rax,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero LBB1_20: movb (%rdi), %cl movb %cl, -23(%rbp,%rax) movss %xmm0, -20(%rbp,%rax,4) movzbl -23(%rbp), %eax movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero ucomiss %xmm1, %xmm0 movzbl -22(%rbp), %ecx movl %eax, %edx cmoval %ecx, %edx minss %xmm0, %xmm1 ucomiss -12(%rbp), %xmm1 movzbl -21(%rbp), %esi cmoval %esi, %edx cmpb %sil, %cl cmovel %ecx, %edx cmpb %sil, %al cmovel %eax, %edx cmpb %cl, %al cmovel %eax, %edx movb %dl, (%r9) movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -8(%rbp), %rax jne LBB1_22 ## %bb.21: addq $32, %rsp popq %rbp retq LBB1_22: callq ___stack_chk_fail .cfi_endproc ## -- End function .globl _knnFloatNoSqrt8p128f_4parallel ## -- Begin function knnFloatNoSqrt8p128f_4parallel .p2align 4, 0x90 _knnFloatNoSqrt8p128f_4parallel: ## @knnFloatNoSqrt8p128f_4parallel .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $40, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %r9, %r13 movq %r8, %rbx movq %rcx, %r14 movq %rdx, %rcx movq %rsi, %r15 movq %rdi, %r12 movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax movq %rax, -48(%rbp) leaq -56(%rbp), %rdx movq %rcx, %rdi movq %r12, %rsi callq _parallel_0 leaq -64(%rbp), %rdx movq %r14, %rdi movq %r12, %rsi callq _parallel_0 leaq -72(%rbp), %r14 movq %rbx, %rdi movq %r12, %rsi movq %r14, %rdx callq _parallel_0 leaq -80(%rbp), %rbx movq %r13, %rdi movq %r12, %rsi movq %rbx, %rdx callq _parallel_0 movq %r15, %rdi leaq -64(%rbp), %rsi leaq -56(%rbp), %rdx movq %rbx, %rcx movq %r14, %r8 movq 16(%rbp), %r9 callq _epilogue movq ___stack_chk_guard@GOTPCREL(%rip), %rax movq (%rax), %rax cmpq -48(%rbp), %rax jne LBB2_2 ## %bb.1: addq $40, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq LBB2_2: callq ___stack_chk_fail .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _parallel_0 ; -- Begin function parallel_0 .p2align 2 _parallel_0: ; @parallel_0 .cfi_startproc ; %bb.0: sub sp, sp, #496 .cfi_def_cfa_offset 496 stp d15, d14, [sp, #416] ; 16-byte Folded Spill stp d13, d12, [sp, #432] ; 16-byte Folded Spill stp d11, d10, [sp, #448] ; 16-byte Folded Spill stp d9, d8, [sp, #464] ; 16-byte Folded Spill stp x28, x27, [sp, #480] ; 16-byte Folded Spill .cfi_offset w27, -8 .cfi_offset w28, -16 .cfi_offset b8, -24 .cfi_offset b9, -32 .cfi_offset b10, -40 .cfi_offset b11, -48 .cfi_offset b12, -56 .cfi_offset b13, -64 .cfi_offset b14, -72 .cfi_offset b15, -80 mov x8, #0 mov w9, #1 LBB0_1: ; =>This Inner Loop Header: Depth=1 ldp s0, s1, [x1] add x10, x0, x8, lsl #9 ldp s2, s3, [x10] fsub s0, s0, s2 str s0, [sp, #412] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #408] ; 4-byte Folded Spill ldp s0, s1, [x1, #8] ldp s2, s3, [x10, #8] fsub s0, s0, s2 str s0, [sp, #400] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #392] ; 4-byte Folded Spill ldp s0, s1, [x1, #16] ldp s2, s3, [x10, #16] fsub s0, s0, s2 str s0, [sp, #384] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #388] ; 4-byte Folded Spill ldp s0, s1, [x1, #24] ldp s2, s3, [x10, #24] fsub s0, s0, s2 str s0, [sp, #380] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #404] ; 4-byte Folded Spill ldp s0, s1, [x1, #32] ldp s2, s3, [x10, #32] fsub s0, s0, s2 str s0, [sp, #396] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #356] ; 4-byte Folded Spill ldp s0, s1, [x1, #40] ldp s2, s3, [x10, #40] fsub s0, s0, s2 str s0, [sp, #348] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #316] ; 4-byte Folded Spill ldp s0, s1, [x1, #48] ldp s2, s3, [x10, #48] fsub s0, s0, s2 str s0, [sp, #304] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #344] ; 4-byte Folded Spill ldp s0, s1, [x1, #56] ldp s2, s3, [x10, #56] fsub s0, s0, s2 str s0, [sp, #328] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #332] ; 4-byte Folded Spill ldp s0, s1, [x1, #64] ldp s2, s3, [x10, #64] fsub s0, s0, s2 str s0, [sp, #312] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #376] ; 4-byte Folded Spill ldp s0, s1, [x1, #72] ldp s2, s3, [x10, #72] fsub s0, s0, s2 str s0, [sp, #372] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #296] ; 4-byte Folded Spill ldp s0, s1, [x1, #80] ldp s2, s3, [x10, #80] fsub s0, s0, s2 str s0, [sp, #280] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #240] ; 4-byte Folded Spill ldp s0, s1, [x1, #88] ldp s2, s3, [x10, #88] fsub s0, s0, s2 str s0, [sp, #224] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #292] ; 4-byte Folded Spill ldp s0, s1, [x1, #96] ldp s2, s3, [x10, #96] fsub s0, s0, s2 str s0, [sp, #276] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #368] ; 4-byte Folded Spill ldp s0, s1, [x1, #104] ldp s2, s3, [x10, #104] fsub s0, s0, s2 str s0, [sp, #360] ; 4-byte Folded Spill fsub s4, s1, s3 ldp s0, s1, [x1, #112] ldp s2, s3, [x10, #112] fsub s0, s0, s2 stp s0, s4, [sp, #204] ; 8-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #308] ; 4-byte Folded Spill ldp s0, s1, [x1, #120] ldp s2, s3, [x10, #120] fsub s0, s0, s2 str s0, [sp, #300] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #364] ; 4-byte Folded Spill ldp s0, s1, [x1, #128] ldp s2, s3, [x10, #128] fsub s0, s0, s2 str s0, [sp, #352] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #336] ; 4-byte Folded Spill ldp s0, s1, [x1, #136] ldp s2, s3, [x10, #136] fsub s0, s0, s2 str s0, [sp, #320] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #288] ; 4-byte Folded Spill ldp s0, s1, [x1, #144] ldp s2, s3, [x10, #144] fsub s0, s0, s2 str s0, [sp, #272] ; 4-byte Folded Spill fsub s4, s1, s3 ldp s0, s1, [x1, #152] ldp s2, s3, [x10, #152] fsub s0, s0, s2 stp s0, s4, [sp, #212] ; 8-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #340] ; 4-byte Folded Spill ldp s0, s1, [x1, #160] ldp s2, s3, [x10, #160] fsub s0, s0, s2 str s0, [sp, #324] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #248] ; 4-byte Folded Spill ldp s0, s1, [x1, #168] ldp s2, s3, [x10, #168] fsub s0, s0, s2 str s0, [sp, #228] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #284] ; 4-byte Folded Spill ldp s0, s1, [x1, #176] ldp s2, s3, [x10, #176] fsub s0, s0, s2 str s0, [sp, #264] ; 4-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #268] ; 4-byte Folded Spill ldp s0, s1, [x1, #184] ldp s2, s3, [x10, #184] fsub s0, s0, s2 str s0, [sp, #260] ; 4-byte Folded Spill fsub s4, s1, s3 ldp s0, s1, [x1, #192] ldp s2, s3, [x10, #192] fsub s0, s0, s2 stp s0, s4, [sp, #196] ; 8-byte Folded Spill fsub s0, s1, s3 str s0, [sp, #144] ; 4-byte Folded Spill ldp s0, s1, [x1, #200] ldp s2, s4, [x10, #200] fsub s3, s0, s2 fsub s0, s1, s4 str s0, [sp, #184] ; 4-byte Folded Spill ldp s0, s1, [x1, #208] ldp s2, s4, [x10, #208] fsub s0, s0, s2 str s0, [sp, #172] ; 4-byte Folded Spill fsub s0, s1, s4 str s0, [sp, #152] ; 4-byte Folded Spill ldp s0, s1, [x1, #216] ldp s2, s4, [x10, #216] fsub s0, s0, s2 stp s3, s0, [sp, #132] ; 8-byte Folded Spill fsub s3, s1, s4 ldp s0, s1, [x1, #224] ldp s2, s4, [x10, #224] fsub s5, s0, s2 fsub s0, s1, s4 stp s3, s0, [sp, #252] ; 8-byte Folded Spill ldp s0, s1, [x1, #232] ldp s2, s4, [x10, #232] fsub s0, s0, s2 str s0, [sp, #244] ; 4-byte Folded Spill fsub s3, s1, s4 ldp s0, s1, [x1, #240] ldp s2, s4, [x10, #240] fsub s0, s0, s2 stp s0, s3, [sp, #124] ; 8-byte Folded Spill fsub s0, s1, s4 stp s5, s0, [sp, #232] ; 8-byte Folded Spill ldp s0, s1, [x1, #248] ldp s2, s4, [x10, #248] fsub s0, s0, s2 str s0, [sp, #220] ; 4-byte Folded Spill fsub s0, s1, s4 str s0, [sp, #92] ; 4-byte Folded Spill ldr s0, [x1, #256] ldr s1, [x10, #256] fsub s29, s0, s1 ldr s0, [x1, #260] ldr s1, [x10, #260] fsub s0, s0, s1 str s0, [sp, #148] ; 4-byte Folded Spill ldr s0, [x1, #264] ldr s1, [x10, #264] fsub s0, s0, s1 str s0, [sp, #140] ; 4-byte Folded Spill ldr s0, [x1, #268] ldr s1, [x10, #268] fsub s2, s0, s1 ldr s0, [x1, #272] ldr s1, [x10, #272] fsub s0, s0, s1 stp s0, s2, [sp, #176] ; 8-byte Folded Spill ldr s0, [x1, #276] ldr s1, [x10, #276] fsub s2, s0, s1 ldr s0, [x1, #280] ldr s1, [x10, #280] fsub s0, s0, s1 stp s0, s2, [sp, #156] ; 8-byte Folded Spill ldr s0, [x1, #284] ldr s1, [x10, #284] fsub s2, s0, s1 ldr s0, [x1, #288] ldr s1, [x10, #288] fsub s0, s0, s1 stp s0, s2, [sp, #188] ; 8-byte Folded Spill ldr s0, [x1, #292] ldr s1, [x10, #292] fsub s2, s0, s1 ldr s0, [x1, #296] ldr s1, [x10, #296] fsub s0, s0, s1 stp s0, s2, [sp, #164] ; 8-byte Folded Spill ldr s0, [x1, #300] ldr s1, [x10, #300] fsub s2, s0, s1 ldr s0, [x1, #304] ldr s1, [x10, #304] fsub s3, s0, s1 ldr s0, [x1, #308] ldr s1, [x10, #308] fsub s0, s0, s1 stp s0, s2, [sp, #112] ; 8-byte Folded Spill ldr s0, [x1, #312] ldr s1, [x10, #312] fsub s0, s0, s1 stp s0, s3, [sp, #100] ; 8-byte Folded Spill ldr s0, [x1, #316] ldr s1, [x10, #316] fsub s12, s0, s1 ldr s0, [x1, #320] ldr s2, [x10, #320] fsub s28, s0, s2 ldr s0, [x1, #324] ldr s4, [x10, #324] fsub s0, s0, s4 str s0, [sp, #96] ; 4-byte Folded Spill ldr s0, [x1, #328] ldr s4, [x10, #328] fsub s0, s0, s4 str s0, [sp, #88] ; 4-byte Folded Spill ldr s0, [x1, #332] ldr s4, [x10, #332] fsub s0, s0, s4 str s0, [sp, #120] ; 4-byte Folded Spill ldr s0, [x1, #336] ldr s4, [x10, #336] fsub s0, s0, s4 str s0, [sp, #108] ; 4-byte Folded Spill ldr s0, [x1, #340] ldr s4, [x10, #340] fsub s0, s0, s4 str s0, [sp, #48] ; 4-byte Folded Spill ldr s0, [x1, #344] ldr s4, [x10, #344] fsub s11, s0, s4 ldr s0, [x1, #348] ldr s4, [x10, #348] fsub s8, s0, s4 ldr s0, [x1, #352] ldr s4, [x10, #352] fsub s31, s0, s4 ldr s0, [x1, #356] ldr s4, [x10, #356] fsub s16, s0, s4 ldr s0, [x1, #360] ldr s4, [x10, #360] fsub s7, s0, s4 ldr s0, [x1, #364] ldr s4, [x10, #364] fsub s0, s0, s4 str s0, [sp, #64] ; 4-byte Folded Spill ldr s0, [x1, #368] ldr s4, [x10, #368] fsub s0, s0, s4 str s0, [sp, #56] ; 4-byte Folded Spill ldr s0, [x1, #372] ldr s4, [x10, #372] fsub s1, s0, s4 ldr s0, [x1, #376] ldr s4, [x10, #376] fsub s0, s0, s4 stp s0, s1, [sp, #40] ; 8-byte Folded Spill ldr s0, [x1, #380] ldr s4, [x10, #380] fsub s5, s0, s4 ldr s0, [x1, #384] ldr s4, [x10, #384] fsub s2, s0, s4 ldr s4, [x1, #388] ldr s6, [x10, #388] fsub s1, s4, s6 ldr s4, [x1, #392] ldr s6, [x10, #392] fsub s0, s4, s6 stp s0, s1, [sp, #68] ; 8-byte Folded Spill ldr s4, [x1, #396] ldr s6, [x10, #396] fsub s1, s4, s6 ldr s4, [x1, #400] ldr s6, [x10, #400] fsub s13, s4, s6 ldr s4, [x1, #404] ldr s6, [x10, #404] fsub s0, s4, s6 stp s0, s1, [sp, #32] ; 8-byte Folded Spill ldr s4, [x1, #408] ldr s6, [x10, #408] fsub s0, s4, s6 str s0, [sp, #28] ; 4-byte Folded Spill ldr s4, [x1, #412] ldr s6, [x10, #412] fsub s1, s4, s6 ldr s4, [x1, #416] ldr s6, [x10, #416] fsub s0, s4, s6 stp s0, s1, [sp, #80] ; 8-byte Folded Spill ldr s4, [x1, #420] ldr s6, [x10, #420] fsub s20, s4, s6 ldr s4, [x1, #424] ldr s6, [x10, #424] fsub s21, s4, s6 ldr s4, [x1, #428] ldr s6, [x10, #428] fsub s0, s4, s6 str s0, [sp, #60] ; 4-byte Folded Spill ldr s4, [x1, #432] ldr s6, [x10, #432] fsub s0, s4, s6 str s0, [sp, #52] ; 4-byte Folded Spill ldr s4, [x1, #436] ldr s6, [x10, #436] fsub s19, s4, s6 ldr s4, [x1, #440] ldr s6, [x10, #440] fsub s23, s4, s6 ldr s4, [x1, #444] ldr s6, [x10, #444] fsub s17, s4, s6 ldr s4, [x1, #448] ldr s6, [x10, #448] fsub s24, s4, s6 ldr s4, [x1, #452] ldr s6, [x10, #452] fsub s25, s4, s6 ldr s4, [x1, #456] ldr s6, [x10, #456] fsub s26, s4, s6 ldr s4, [x1, #460] ldr s6, [x10, #460] fsub s27, s4, s6 ldr s4, [x1, #464] ldr s6, [x10, #464] fsub s30, s4, s6 ldr s4, [x1, #468] ldr s6, [x10, #468] fsub s1, s4, s6 ldr s4, [x1, #472] ldr s6, [x10, #472] fsub s0, s4, s6 stp s0, s1, [sp, #20] ; 8-byte Folded Spill ldr s4, [x1, #476] ldr s6, [x10, #476] fsub s15, s4, s6 ldr s4, [x1, #480] ldr s6, [x10, #480] fsub s3, s4, s6 ldr s4, [x1, #484] ldr s6, [x10, #484] fsub s14, s4, s6 ldr s4, [x1, #488] ldr s6, [x10, #488] fsub s18, s4, s6 ldr s6, [x1, #492] ldr s22, [x10, #492] fsub s22, s6, s22 ldr s6, [x1, #496] ldr s9, [x10, #496] fsub s6, s6, s9 ldr s9, [x1, #500] ldr s10, [x10, #500] fsub s1, s9, s10 ldr s9, [x1, #504] ldr s10, [x10, #504] fsub s0, s9, s10 ldr s9, [x1, #508] ldr s10, [x10, #508] fsub s4, s9, s10 str s4, [sp, #76] ; 4-byte Folded Spill ldr s4, [sp, #204] ; 4-byte Folded Reload fmul s9, s4, s4 ldr s4, [sp, #208] ; 4-byte Folded Reload fmadd s4, s4, s4, s9 str s4, [sp, #208] ; 4-byte Folded Spill ldr s4, [sp, #224] ; 4-byte Folded Reload fmul s9, s4, s4 ldr s4, [sp, #240] ; 4-byte Folded Reload fmadd s4, s4, s4, s9 str s4, [sp, #16] ; 4-byte Folded Spill ldr s4, [sp, #132] ; 4-byte Folded Reload fmul s9, s4, s4 ldr s4, [sp, #144] ; 4-byte Folded Reload fmadd s4, s4, s4, s9 str s4, [sp, #240] ; 4-byte Folded Spill fmul s28, s28, s28 fmadd s4, s12, s12, s28 str s4, [sp, #132] ; 4-byte Folded Spill fmul s2, s2, s2 fmadd s2, s5, s5, s2 str s2, [sp, #224] ; 4-byte Folded Spill fmul s2, s24, s24 fmadd s2, s17, s17, s2 str s2, [sp, #12] ; 4-byte Folded Spill fmul s2, s26, s26 fmadd s2, s25, s25, s2 str s2, [sp, #4] ; 4-byte Folded Spill fmul s2, s21, s21 fmadd s2, s20, s20, s2 str s2, [sp, #144] ; 4-byte Folded Spill fmul s2, s29, s29 ldr s4, [sp, #92] ; 4-byte Folded Reload fmadd s2, s4, s4, s2 str s2, [sp, #92] ; 4-byte Folded Spill fmul s2, s7, s7 fmadd s2, s16, s16, s2 str s2, [sp, #8] ; 4-byte Folded Spill ldr s2, [sp, #136] ; 4-byte Folded Reload fmul s2, s2, s2 ldr s4, [sp, #152] ; 4-byte Folded Reload fmadd s2, s4, s4, s2 str s2, [sp, #204] ; 4-byte Folded Spill fmul s2, s30, s30 fmadd s2, s27, s27, s2 str s2, [sp, #152] ; 4-byte Folded Spill ldr s2, [sp, #280] ; 4-byte Folded Reload fmul s2, s2, s2 ldr s4, [sp, #296] ; 4-byte Folded Reload fmadd s2, s4, s4, s2 str s2, [sp, #136] ; 4-byte Folded Spill ldp s2, s4, [sp, #124] ; 8-byte Folded Reload fmul s2, s2, s2 fmadd s2, s4, s4, s2 str s2, [sp, #280] ; 4-byte Folded Spill ldr s2, [sp, #304] ; 4-byte Folded Reload fmul s2, s2, s2 ldr s4, [sp, #316] ; 4-byte Folded Reload fmadd s2, s4, s4, s2 str s2, [sp, #124] ; 4-byte Folded Spill fmul s2, s23, s23 fmadd s2, s19, s19, s2 str s2, [sp, #304] ; 4-byte Folded Spill fmul s2, s3, s3 fmadd s2, s15, s15, s2 str s2, [sp, #316] ; 4-byte Folded Spill fmul s0, s0, s0 fmadd s0, s1, s1, s0 str s0, [sp, #128] ; 4-byte Folded Spill ldr s0, [sp, #276] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #292] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #296] ; 4-byte Folded Spill ldp s0, s1, [sp, #212] ; 8-byte Folded Reload fmul s0, s0, s0 fmadd s0, s1, s1, s0 str s0, [sp, #216] ; 4-byte Folded Spill fmul s0, s31, s31 fmadd s0, s8, s8, s0 str s0, [sp, #276] ; 4-byte Folded Spill fmul s0, s11, s11 ldr s1, [sp, #48] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #292] ; 4-byte Folded Spill ldr s0, [sp, #328] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #344] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #48] ; 4-byte Folded Spill ldr s0, [sp, #312] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #332] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #328] ; 4-byte Folded Spill ldr s0, [sp, #172] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #184] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #344] ; 4-byte Folded Spill ldp s0, s1, [sp, #196] ; 8-byte Folded Reload fmul s0, s0, s0 fmadd s0, s1, s1, s0 str s0, [sp, #332] ; 4-byte Folded Spill ldr s0, [sp, #348] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #356] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #312] ; 4-byte Folded Spill ldr s0, [sp, #140] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #148] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #212] ; 4-byte Folded Spill ldp s0, s1, [sp, #40] ; 8-byte Folded Reload fmul s0, s0, s0 fmadd s0, s1, s1, s0 str s0, [sp, #356] ; 4-byte Folded Spill fmul s0, s13, s13 ldr s1, [sp, #36] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [sp, #348] ; 4-byte Folded Spill ldr s0, [sp, #104] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #116] ; 4-byte Folded Reload fmadd s29, s1, s1, s0 ldp s0, s1, [sp, #28] ; 8-byte Folded Reload fmul s0, s0, s0 fmadd s0, s1, s1, s0 str s0, [sp, #200] ; 4-byte Folded Spill ldr s0, [sp, #228] ; 4-byte Folded Reload fmul s0, s0, s0 ldr s1, [sp, #248] ; 4-byte Folded Reload fmadd s3, s1, s1, s0 ldr s0, [sp, #100] ; 4-byte Folded Reload fmul s1, s0, s0 ldr s0, [sp, #112] ; 4-byte Folded Reload fmadd s4, s0, s0, s1 ldr s0, [sp, #56] ; 4-byte Folded Reload fmul s2, s0, s0 ldr s0, [sp, #64] ; 4-byte Folded Reload fmadd s0, s0, s0, s2 str s0, [sp, #248] ; 4-byte Folded Spill ldr s0, [sp, #272] ; 4-byte Folded Reload fmul s2, s0, s0 ldr s0, [sp, #288] ; 4-byte Folded Reload fmadd s5, s0, s0, s2 ldr s0, [sp, #88] ; 4-byte Folded Reload fmul s15, s0, s0 ldr s0, [sp, #96] ; 4-byte Folded Reload fmadd s15, s0, s0, s15 fmul s18, s18, s18 fmadd s0, s14, s14, s18 str s0, [sp, #288] ; 4-byte Folded Spill ldr s0, [sp, #384] ; 4-byte Folded Reload fmul s18, s0, s0 ldr s0, [sp, #392] ; 4-byte Folded Reload fmadd s18, s0, s0, s18 ldr s0, [sp, #300] ; 4-byte Folded Reload fmul s14, s0, s0 ldr s0, [sp, #308] ; 4-byte Folded Reload fmadd s14, s0, s0, s14 fmul s6, s6, s6 fmadd s22, s22, s22, s6 ldr s0, [sp, #380] ; 4-byte Folded Reload fmul s6, s0, s0 ldr s0, [sp, #388] ; 4-byte Folded Reload fmadd s2, s0, s0, s6 ldr s0, [sp, #156] ; 4-byte Folded Reload fmul s6, s0, s0 ldr s0, [sp, #160] ; 4-byte Folded Reload fmadd s0, s0, s0, s6 str s0, [sp, #392] ; 4-byte Folded Spill ldr s0, [sp, #400] ; 4-byte Folded Reload fmul s10, s0, s0 ldr s0, [sp, #408] ; 4-byte Folded Reload fmadd s10, s0, s0, s10 ldr s0, [sp, #108] ; 4-byte Folded Reload fmul s12, s0, s0 ldr s0, [sp, #120] ; 4-byte Folded Reload fmadd s12, s0, s0, s12 ldr s0, [sp, #264] ; 4-byte Folded Reload fmul s30, s0, s0 ldr s0, [sp, #284] ; 4-byte Folded Reload fmadd s30, s0, s0, s30 ldr s0, [sp, #260] ; 4-byte Folded Reload fmul s9, s0, s0 ldr s0, [sp, #268] ; 4-byte Folded Reload fmadd s9, s0, s0, s9 ldr s0, [sp, #176] ; 4-byte Folded Reload fmul s11, s0, s0 ldr s0, [sp, #180] ; 4-byte Folded Reload fmadd s11, s0, s0, s11 ldr s0, [sp, #68] ; 4-byte Folded Reload fmul s27, s0, s0 ldr s0, [sp, #72] ; 4-byte Folded Reload fmadd s27, s0, s0, s27 ldr s0, [sp, #396] ; 4-byte Folded Reload fmul s31, s0, s0 ldr s0, [sp, #404] ; 4-byte Folded Reload fmadd s31, s0, s0, s31 ldr s0, [sp, #320] ; 4-byte Folded Reload fmul s8, s0, s0 ldr s0, [sp, #336] ; 4-byte Folded Reload fmadd s8, s0, s0, s8 ldr s0, [sp, #20] ; 4-byte Folded Reload fmul s26, s0, s0 ldr s0, [sp, #24] ; 4-byte Folded Reload fmadd s26, s0, s0, s26 ldr s0, [sp, #164] ; 4-byte Folded Reload fmul s25, s0, s0 ldr s0, [sp, #168] ; 4-byte Folded Reload fmadd s25, s0, s0, s25 ldr s0, [sp, #232] ; 4-byte Folded Reload fmul s28, s0, s0 ldr s0, [sp, #252] ; 4-byte Folded Reload fmadd s28, s0, s0, s28 ldr s0, [sp, #360] ; 4-byte Folded Reload fmul s24, s0, s0 ldr s0, [sp, #368] ; 4-byte Folded Reload fmadd s24, s0, s0, s24 ldr s0, [sp, #372] ; 4-byte Folded Reload fmul s23, s0, s0 ldr s0, [sp, #376] ; 4-byte Folded Reload fmadd s23, s0, s0, s23 ldr s0, [sp, #52] ; 4-byte Folded Reload fmul s21, s0, s0 ldr s0, [sp, #60] ; 4-byte Folded Reload fmadd s21, s0, s0, s21 ldr s0, [sp, #188] ; 4-byte Folded Reload fmul s20, s0, s0 ldr s0, [sp, #192] ; 4-byte Folded Reload fmadd s20, s0, s0, s20 ldr s0, [sp, #244] ; 4-byte Folded Reload fmul s13, s0, s0 ldr s0, [sp, #256] ; 4-byte Folded Reload fmadd s13, s0, s0, s13 ldr s0, [sp, #220] ; 4-byte Folded Reload fmul s17, s0, s0 ldr s0, [sp, #236] ; 4-byte Folded Reload fmadd s17, s0, s0, s17 ldr s0, [sp, #324] ; 4-byte Folded Reload fmul s19, s0, s0 ldr s0, [sp, #340] ; 4-byte Folded Reload fmadd s19, s0, s0, s19 ldr s0, [sp, #352] ; 4-byte Folded Reload fmul s7, s0, s0 ldr s0, [sp, #364] ; 4-byte Folded Reload fmadd s7, s0, s0, s7 ldr s0, [sp, #80] ; 4-byte Folded Reload fmul s16, s0, s0 ldr s0, [sp, #84] ; 4-byte Folded Reload fmadd s16, s0, s0, s16 ldr s0, [sp, #16] ; 4-byte Folded Reload ldr s1, [sp, #136] ; 4-byte Folded Reload fadd s0, s1, s0 ldr s1, [sp, #124] ; 4-byte Folded Reload ldr s6, [sp, #48] ; 4-byte Folded Reload fadd s1, s1, s6 fadd s3, s19, s3 str s3, [sp, #408] ; 4-byte Folded Spill fadd s19, s20, s25 fadd s4, s29, s4 ldr s6, [sp, #132] ; 4-byte Folded Reload fadd s20, s6, s15 ldr s6, [sp, #280] ; 4-byte Folded Reload fadd s17, s6, s17 ldr s6, [sp, #12] ; 4-byte Folded Reload ldr s25, [sp, #4] ; 4-byte Folded Reload fadd s25, s6, s25 ldr s6, [sp, #128] ; 4-byte Folded Reload fadd s22, s22, s6 movi d29, #0000000000000000 ldr s15, [sp, #412] ; 4-byte Folded Reload fmadd s29, s15, s15, s29 fadd s29, s29, s10 ldp s10, s6, [sp, #212] ; 8-byte Folded Reload fadd s5, s5, s6 ldr s6, [sp, #312] ; 4-byte Folded Reload fadd s31, s31, s6 ldr s6, [sp, #328] ; 4-byte Folded Reload fadd s23, s6, s23 ldr s6, [sp, #92] ; 4-byte Folded Reload fadd s10, s6, s10 ldr s6, [sp, #8] ; 4-byte Folded Reload ldr s15, [sp, #276] ; 4-byte Folded Reload fadd s15, s15, s6 ldr s6, [sp, #208] ; 4-byte Folded Reload fadd s14, s6, s14 ldr s6, [sp, #144] ; 4-byte Folded Reload fadd s16, s16, s6 ldr s6, [sp, #152] ; 4-byte Folded Reload fadd s26, s6, s26 fadd s2, s18, s2 ldr s6, [sp, #348] ; 4-byte Folded Reload ldr s18, [sp, #200] ; 4-byte Folded Reload fadd s18, s6, s18 fadd s7, s7, s8 fadd s28, s28, s13 ldr s6, [sp, #224] ; 4-byte Folded Reload fadd s27, s6, s27 ldr s6, [sp, #356] ; 4-byte Folded Reload ldr s3, [sp, #248] ; 4-byte Folded Reload fadd s8, s3, s6 ldr s6, [sp, #304] ; 4-byte Folded Reload fadd s21, s21, s6 fadd s30, s30, s9 ldr s6, [sp, #292] ; 4-byte Folded Reload fadd s9, s12, s6 ldr s12, [sp, #240] ; 4-byte Folded Reload ldr s6, [sp, #332] ; 4-byte Folded Reload fadd s12, s6, s12 ldr s6, [sp, #204] ; 4-byte Folded Reload ldr s13, [sp, #344] ; 4-byte Folded Reload fadd s13, s13, s6 ldr s3, [sp, #392] ; 4-byte Folded Reload fadd s6, s11, s3 ldr s11, [sp, #296] ; 4-byte Folded Reload fadd s24, s11, s24 ldr s11, [sp, #316] ; 4-byte Folded Reload ldr s3, [sp, #288] ; 4-byte Folded Reload fadd s11, s11, s3 fadd s0, s23, s0 fadd s23, s15, s8 fadd s1, s31, s1 fadd s4, s19, s4 fadd s2, s29, s2 fadd s19, s24, s14 fadd s24, s25, s26 fadd s16, s16, s21 fadd s21, s11, s22 fadd s6, s10, s6 fadd s22, s12, s13 fadd s18, s27, s18 fadd s5, s7, s5 fadd s7, s28, s17 fadd s17, s20, s9 ldr s3, [sp, #408] ; 4-byte Folded Reload fadd s3, s3, s30 fadd s4, s6, s4 fadd s6, s17, s23 fadd s16, s18, s16 fadd s3, s5, s3 fadd s5, s24, s21 fadd s0, s0, s19 fadd s1, s2, s1 fadd s2, s22, s7 fadd s2, s3, s2 fadd s3, s4, s6 fadd s4, s16, s5 fadd s0, s1, s0 fadd s1, s3, s4 fadd s0, s0, s2 fadd s0, s0, s1 ldr s1, [sp, #76] ; 4-byte Folded Reload fmadd s0, s1, s1, s0 str s0, [x2, x8, lsl #2] mov x10, x9 mov w8, #1 mov w9, #0 tbnz w10, #0, LBB0_1 ; %bb.2: ldp x28, x27, [sp, #480] ; 16-byte Folded Reload ldp d9, d8, [sp, #464] ; 16-byte Folded Reload ldp d11, d10, [sp, #448] ; 16-byte Folded Reload ldp d13, d12, [sp, #432] ; 16-byte Folded Reload ldp d15, d14, [sp, #416] ; 16-byte Folded Reload add sp, sp, #496 ret .cfi_endproc ; -- End function .globl _epilogue ; -- Begin function epilogue .p2align 2 _epilogue: ; @epilogue .cfi_startproc ; %bb.0: sub sp, sp, #48 .cfi_def_cfa_offset 48 stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 Lloh0: adrp x8, ___stack_chk_guard@GOTPAGE Lloh1: ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF] Lloh2: ldr x8, [x8] stur x8, [x29, #-8] mov w8, #2139095040 dup.2s v0, w8 stur d0, [sp, #16] fmov s1, w8 ldp s2, s0, [x2] fcmp s2, s1 fminnm s2, s2, s1 str s2, [sp, #12] movi d3, #0000000000000000 fmaxnm s2, s2, s3 mov w8, #514 sturh w8, [sp, #9] mov w8, #2 strb w8, [sp, #11] add x8, sp, #9 csel x9, x0, x8, mi ldrb w9, [x9] strb w9, [sp, #9] fcmp s2, s1 cset w9, mi fcsel s1, s1, s2, mi cinc x8, x8, mi fcmp s0, s1 b.pl LBB1_2 ; %bb.1: add x8, x0, #1 b LBB1_3 LBB1_2: add x10, sp, #12 ldr s0, [x10, x9, lsl #2] LBB1_3: ldrb w11, [x8] add x8, sp, #12 str s0, [x8, x9, lsl #2] add x10, sp, #9 strb w11, [x10, x9] ldp s0, s1, [sp, #12] movi d2, #0000000000000000 fmaxnm s0, s0, s2 fcmp s1, s0 cset w9, gt fcsel s1, s1, s0, gt mov w11, #2139095040 fmov s2, w11 fmax s3, s1, s2 ldr s0, [x1] fcmp s1, s2 mov w11, #2 csel x9, x11, x9, mi fcmp s0, s3 b.pl LBB1_5 ; %bb.4: add x10, x0, #2 b LBB1_6 LBB1_5: add x10, x10, x9 ldr s0, [x8, x9, lsl #2] LBB1_6: ldrb w8, [x10] add x10, sp, #9 strb w8, [x10, x9] add x11, sp, #12 str s0, [x11, x9, lsl #2] ldp s0, s1, [sp, #12] ldr s2, [sp, #20] movi d3, #0000000000000000 fmaxnm s0, s0, s3 fcmp s1, s0 cset w8, gt fcsel s0, s1, s0, gt fcmp s2, s0 fcsel s1, s2, s0, gt ldr s0, [x1, #4] mov w9, #2 csel x8, x9, x8, gt fcmp s0, s1 b.pl LBB1_8 ; %bb.7: add x9, x0, #3 b LBB1_9 LBB1_8: add x9, x10, x8 ldr s0, [x11, x8, lsl #2] LBB1_9: ldrb w10, [x9] add x9, sp, #9 strb w10, [x9, x8] add x11, sp, #12 str s0, [x11, x8, lsl #2] ldp s0, s1, [sp, #12] ldr s2, [sp, #20] movi d3, #0000000000000000 fmaxnm s0, s0, s3 fcmp s1, s0 cset w8, gt fcsel s0, s1, s0, gt fcmp s2, s0 fcsel s1, s2, s0, gt ldr s0, [x4] mov w10, #2 csel x10, x10, x8, gt fcmp s0, s1 b.pl LBB1_11 ; %bb.10: add x8, x0, #4 b LBB1_12 LBB1_11: add x8, x9, x10 ldr s0, [x11, x10, lsl #2] LBB1_12: ldrb w9, [x8] add x8, sp, #9 strb w9, [x8, x10] add x9, sp, #12 str s0, [x9, x10, lsl #2] ldp s0, s1, [sp, #12] ldr s2, [sp, #20] movi d3, #0000000000000000 fmaxnm s0, s0, s3 fcmp s1, s0 cset w10, gt fcsel s0, s1, s0, gt fcmp s2, s0 fcsel s0, s2, s0, gt ldr s1, [x4, #4] mov w11, #2 csel x10, x11, x10, gt add x12, x8, x10 lsl x10, x10, #2 ldr s2, [x9, x10] add x13, x0, #5 fcmp s1, s0 csel x13, x13, x12, mi ldrb w13, [x13] fcsel s0, s1, s2, mi strb w13, [x12] str s0, [x9, x10] ldp s0, s1, [sp, #12] ldr s2, [sp, #20] fmaxnm s0, s0, s3 fcmp s1, s0 cset w10, gt fcsel s0, s1, s0, gt fcmp s2, s0 fcsel s1, s2, s0, gt ldr s0, [x3] csel x10, x11, x10, gt fcmp s0, s1 b.pl LBB1_14 ; %bb.13: add x8, x0, #6 b LBB1_15 LBB1_14: add x8, x8, x10 ldr s0, [x9, x10, lsl #2] LBB1_15: ldrb w8, [x8] add x9, sp, #9 strb w8, [x9, x10] add x11, sp, #12 str s0, [x11, x10, lsl #2] ldp s0, s1, [sp, #12] ldr s2, [sp, #20] movi d3, #0000000000000000 fmaxnm s0, s0, s3 fcmp s1, s0 cset w8, gt fcsel s0, s1, s0, gt fcmp s2, s0 fcsel s1, s2, s0, gt ldr s0, [x3, #4] mov w10, #2 csel x8, x10, x8, gt fcmp s0, s1 b.pl LBB1_17 ; %bb.16: add x9, x0, #7 b LBB1_18 LBB1_17: add x9, x9, x8 ldr s0, [x11, x8, lsl #2] LBB1_18: ldrb w9, [x9] add x10, sp, #9 strb w9, [x10, x8] add x9, sp, #12 str s0, [x9, x8, lsl #2] ldrb w8, [sp, #9] ldrb w9, [sp, #10] ldrb w10, [sp, #11] ldp s0, s1, [sp, #12] ldr s2, [sp, #20] fcmp s0, s1 csel w11, w9, w8, gt fcsel s0, s1, s0, gt fcmp s0, s2 csel w11, w10, w11, gt cmp w9, w10 csel w11, w9, w11, eq cmp w8, w10 ccmp w8, w9, #4, ne csel w8, w8, w11, eq strb w8, [x5] ldur x8, [x29, #-8] Lloh3: adrp x9, ___stack_chk_guard@GOTPAGE Lloh4: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh5: ldr x9, [x9] cmp x9, x8 b.ne LBB1_20 ; %bb.19: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload add sp, sp, #48 ret LBB1_20: bl ___stack_chk_fail .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .cfi_endproc ; -- End function .globl _knnFloatNoSqrt8p128f_4parallel ; -- Begin function knnFloatNoSqrt8p128f_4parallel .p2align 2 _knnFloatNoSqrt8p128f_4parallel: ; @knnFloatNoSqrt8p128f_4parallel .cfi_startproc ; %bb.0: sub sp, sp, #112 .cfi_def_cfa_offset 112 stp x24, x23, [sp, #48] ; 16-byte Folded Spill stp x22, x21, [sp, #64] ; 16-byte Folded Spill stp x20, x19, [sp, #80] ; 16-byte Folded Spill stp x29, x30, [sp, #96] ; 16-byte Folded Spill add x29, sp, #96 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x19, x6 mov x20, x5 mov x21, x4 mov x22, x3 mov x8, x2 mov x23, x1 mov x24, x0 Lloh6: adrp x9, ___stack_chk_guard@GOTPAGE Lloh7: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh8: ldr x9, [x9] str x9, [sp, #40] add x2, sp, #32 mov x0, x8 mov x1, x24 bl _parallel_0 add x2, sp, #24 mov x0, x22 mov x1, x24 bl _parallel_0 add x2, sp, #16 mov x0, x21 mov x1, x24 bl _parallel_0 add x2, sp, #8 mov x0, x20 mov x1, x24 bl _parallel_0 add x1, sp, #24 add x2, sp, #32 add x3, sp, #8 add x4, sp, #16 mov x0, x23 mov x5, x19 bl _epilogue ldr x8, [sp, #40] Lloh9: adrp x9, ___stack_chk_guard@GOTPAGE Lloh10: ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF] Lloh11: ldr x9, [x9] cmp x9, x8 b.ne LBB2_2 ; %bb.1: ldp x29, x30, [sp, #96] ; 16-byte Folded Reload ldp x20, x19, [sp, #80] ; 16-byte Folded Reload ldp x22, x21, [sp, #64] ; 16-byte Folded Reload ldp x24, x23, [sp, #48] ; 16-byte Folded Reload add sp, sp, #112 ret LBB2_2: bl ___stack_chk_fail .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .cfi_endproc ; -- End function .subsections_via_symbols
the_stack_data/1028422.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function qla2x00_model_desc_show _qla2x00_model_desc_show: ## @qla2x00_model_desc_show .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %rbx pushq %rax .cfi_offset %rbx, -24 movq %rdx, %rbx callq _class_to_shost movl %eax, %edi callq _shost_priv movq _PAGE_SIZE@GOTPCREL(%rip), %rcx movl (%rcx), %esi movq (%rax), %rax movl (%rax), %ecx leaq L_.str(%rip), %rdx movq %rbx, %rdi addq $8, %rsp popq %rbx popq %rbp jmp _scnprintf ## TAILCALL .cfi_endproc ## -- End function .comm _PAGE_SIZE,4,2 ## @PAGE_SIZE .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "%s\n" .no_dead_strip _qla2x00_model_desc_show .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function qla2x00_model_desc_show _qla2x00_model_desc_show: ; @qla2x00_model_desc_show .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x2 bl _class_to_shost bl _shost_priv Lloh0: adrp x8, _PAGE_SIZE@GOTPAGE Lloh1: ldr x8, [x8, _PAGE_SIZE@GOTPAGEOFF] Lloh2: ldr w1, [x8] ldr x8, [x0] ldr w3, [x8] Lloh3: adrp x2, l_.str@PAGE Lloh4: add x2, x2, l_.str@PAGEOFF mov x0, x19 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _scnprintf .loh AdrpAdd Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _PAGE_SIZE,4,2 ; @PAGE_SIZE .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "%s\n" .no_dead_strip _qla2x00_model_desc_show .subsections_via_symbols
AnghaBench/linux/drivers/scsi/qla2xxx/extr_qla_attr.c_qla2x00_model_desc_show.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function decrypt_cid _decrypt_cid: ## @decrypt_cid .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %rbx pushq %rax .cfi_offset %rbx, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rcx, %r15 movq %rdx, %rbx movq %rsi, %r14 xorl %eax, %eax callq _update_quic_keys movl (%rbx), %edi callq _find_keyset testq %rax, %rax je LBB0_1 ## %bb.2: movq (%rax), %rdi addq $4, %rbx xorl %ecx, %ecx subq $1, %r15 cmovaeq %r15, %rcx movq %r14, %rsi movq %rbx, %rdx callq *(%rdi) movq %rax, %rcx movq _SIZE_MAX@GOTPCREL(%rip), %rax movq (%rax), %rdx leaq 1(%rcx), %rax cmpq %rdx, %rcx cmoveq %rdx, %rax jmp LBB0_3 LBB0_1: movq _SIZE_MAX@GOTPCREL(%rip), %rax movq (%rax), %rax LBB0_3: addq $8, %rsp popq %rbx popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _SIZE_MAX,8,3 ## @SIZE_MAX .no_dead_strip _decrypt_cid .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function decrypt_cid _decrypt_cid: ; @decrypt_cid .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x20, x3 mov x21, x2 mov x19, x1 bl _update_quic_keys ldr w0, [x21] bl _find_keyset cbz x0, LBB0_2 ; %bb.1: ldr x0, [x0] ldr x8, [x0] add x2, x21, #4 sub x9, x20, #1 cmp x20, #0 csel x3, xzr, x9, eq mov x1, x19 blr x8 Lloh0: adrp x8, _SIZE_MAX@GOTPAGE Lloh1: ldr x8, [x8, _SIZE_MAX@GOTPAGEOFF] Lloh2: ldr x8, [x8] cmp x0, x8 csinc x0, x8, x0, eq b LBB0_3 LBB0_2: Lloh3: adrp x8, _SIZE_MAX@GOTPAGE Lloh4: ldr x8, [x8, _SIZE_MAX@GOTPAGEOFF] Lloh5: ldr x0, [x8] LBB0_3: ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .cfi_endproc ; -- End function .comm _SIZE_MAX,8,3 ; @SIZE_MAX .no_dead_strip _decrypt_cid .subsections_via_symbols
AnghaBench/h2o/t/00unit/src/extr_......srcssl.c_decrypt_cid.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function atmegadci_device_non_isoc_close _atmegadci_device_non_isoc_close: ## @atmegadci_device_non_isoc_close .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq _USB_ERR_CANCELLED@GOTPCREL(%rip), %rax movl (%rax), %esi popq %rbp jmp _atmegadci_device_done ## TAILCALL .cfi_endproc ## -- End function .comm _USB_ERR_CANCELLED,4,2 ## @USB_ERR_CANCELLED .no_dead_strip _atmegadci_device_non_isoc_close .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function atmegadci_device_non_isoc_close _atmegadci_device_non_isoc_close: ; @atmegadci_device_non_isoc_close .cfi_startproc ; %bb.0: Lloh0: adrp x8, _USB_ERR_CANCELLED@GOTPAGE Lloh1: ldr x8, [x8, _USB_ERR_CANCELLED@GOTPAGEOFF] Lloh2: ldr w1, [x8] b _atmegadci_device_done .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _USB_ERR_CANCELLED,4,2 ; @USB_ERR_CANCELLED .no_dead_strip _atmegadci_device_non_isoc_close .subsections_via_symbols
AnghaBench/freebsd/sys/dev/usb/controller/extr_atmegadci.c_atmegadci_device_non_isoc_close.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _i_APCI3XXX_InsnReadDigitalOutput ## -- Begin function i_APCI3XXX_InsnReadDigitalOutput .p2align 4, 0x90 _i_APCI3XXX_InsnReadDigitalOutput: ## @i_APCI3XXX_InsnReadDigitalOutput .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rcx, %r14 movq %rdx, %rbx movl (%rdx), %r15d movl 4(%rdx), %edi callq _CR_CHAN cmpl $0, (%rbx) jle LBB0_4 ## %bb.1: movl %eax, %r12d movq _devpriv@GOTPCREL(%rip), %rax movq (%rax), %rax movq 8(%rax), %rcx cmpb (%rcx), %r12b jae LBB0_3 ## %bb.2: movq (%rax), %rdi addq $48, %rdi callq _inl movzbl %r12b, %ecx xorl %edx, %edx btl %ecx, %eax setb %dl movl %edx, (%r14) jmp LBB0_5 LBB0_4: leaq L_.str.1(%rip), %rdi callq _printk movl $-101, %r15d jmp LBB0_5 LBB0_3: leaq L_.str(%rip), %rdi callq _printk movl $-3, %r15d LBB0_5: movl %r15d, %eax popq %rbx popq %r12 popq %r14 popq %r15 popq %rbp retq .cfi_endproc ## -- End function .comm _devpriv,8,3 ## @devpriv .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Channel selection error\n" L_.str.1: ## @.str.1 .asciz "Buffer size error\n" .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _i_APCI3XXX_InsnReadDigitalOutput ; -- Begin function i_APCI3XXX_InsnReadDigitalOutput .p2align 2 _i_APCI3XXX_InsnReadDigitalOutput: ; @i_APCI3XXX_InsnReadDigitalOutput .cfi_startproc ; %bb.0: stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill .cfi_def_cfa_offset 48 stp x20, x19, [sp, #16] ; 16-byte Folded Spill stp x29, x30, [sp, #32] ; 16-byte Folded Spill add x29, sp, #32 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 mov x20, x3 mov x22, x2 ldp w19, w0, [x2] bl _CR_CHAN ldr w8, [x22] cmp w8, #1 b.lt LBB0_3 ; %bb.1: mov x21, x0 Lloh0: adrp x8, _devpriv@GOTPAGE Lloh1: ldr x8, [x8, _devpriv@GOTPAGEOFF] Lloh2: ldr x8, [x8] ldr x9, [x8, #8] ldrb w9, [x9] cmp w0, w9 b.hs LBB0_4 ; %bb.2: ldr x8, [x8] add x0, x8, #48 bl _inl lsr w8, w0, w21 and w8, w8, #0x1 str w8, [x20] b LBB0_5 LBB0_3: Lloh3: adrp x0, l_.str.1@PAGE Lloh4: add x0, x0, l_.str.1@PAGEOFF bl _printk mov w19, #-101 b LBB0_5 LBB0_4: Lloh5: adrp x0, l_.str@PAGE Lloh6: add x0, x0, l_.str@PAGEOFF bl _printk mov w19, #-3 LBB0_5: mov x0, x19 ldp x29, x30, [sp, #32] ; 16-byte Folded Reload ldp x20, x19, [sp, #16] ; 16-byte Folded Reload ldp x22, x21, [sp], #48 ; 16-byte Folded Reload ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpAdd Lloh3, Lloh4 .loh AdrpAdd Lloh5, Lloh6 .cfi_endproc ; -- End function .comm _devpriv,8,3 ; @devpriv .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Channel selection error\n" l_.str.1: ; @.str.1 .asciz "Buffer size error\n" .subsections_via_symbols
AnghaBench/fastsocket/kernel/drivers/staging/comedi/drivers/addi-data/extr_hwdrv_apci3xxx.c_i_APCI3XXX_InsnReadDigitalOutput.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function print_all_libs_info _print_all_libs_info: ## @print_all_libs_info .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r14 pushq %rbx .cfi_offset %rbx, -32 .cfi_offset %r14, -24 movl %esi, %r14d movl %edi, %ebx movq _avutil@GOTPCREL(%rip), %rax movl (%rax), %edi movq _AVUTIL@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _avcodec@GOTPCREL(%rip), %rax movl (%rax), %edi movq _AVCODEC@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _avformat@GOTPCREL(%rip), %rax movl (%rax), %edi movq _AVFORMAT@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _avdevice@GOTPCREL(%rip), %rax movl (%rax), %edi movq _AVDEVICE@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _avfilter@GOTPCREL(%rip), %rax movl (%rax), %edi movq _AVFILTER@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _avresample@GOTPCREL(%rip), %rax movl (%rax), %edi movq _AVRESAMPLE@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _swscale@GOTPCREL(%rip), %rax movl (%rax), %edi movq _SWSCALE@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _swresample@GOTPCREL(%rip), %rax movl (%rax), %edi movq _SWRESAMPLE@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx callq _PRINT_LIB_INFO movq _postproc@GOTPCREL(%rip), %rax movl (%rax), %edi movq _POSTPROC@GOTPCREL(%rip), %rax movl (%rax), %esi movl %ebx, %edx movl %r14d, %ecx popq %rbx popq %r14 popq %rbp jmp _PRINT_LIB_INFO ## TAILCALL .cfi_endproc ## -- End function .comm _avutil,4,2 ## @avutil .comm _AVUTIL,4,2 ## @AVUTIL .comm _avcodec,4,2 ## @avcodec .comm _AVCODEC,4,2 ## @AVCODEC .comm _avformat,4,2 ## @avformat .comm _AVFORMAT,4,2 ## @AVFORMAT .comm _avdevice,4,2 ## @avdevice .comm _AVDEVICE,4,2 ## @AVDEVICE .comm _avfilter,4,2 ## @avfilter .comm _AVFILTER,4,2 ## @AVFILTER .comm _avresample,4,2 ## @avresample .comm _AVRESAMPLE,4,2 ## @AVRESAMPLE .comm _swscale,4,2 ## @swscale .comm _SWSCALE,4,2 ## @SWSCALE .comm _swresample,4,2 ## @swresample .comm _SWRESAMPLE,4,2 ## @SWRESAMPLE .comm _postproc,4,2 ## @postproc .comm _POSTPROC,4,2 ## @POSTPROC .no_dead_strip _print_all_libs_info .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function print_all_libs_info _print_all_libs_info: ; @print_all_libs_info .cfi_startproc ; %bb.0: stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 mov x19, x1 mov x20, x0 Lloh0: adrp x8, _avutil@GOTPAGE Lloh1: ldr x8, [x8, _avutil@GOTPAGEOFF] Lloh2: ldr w0, [x8] Lloh3: adrp x8, _AVUTIL@GOTPAGE Lloh4: ldr x8, [x8, _AVUTIL@GOTPAGEOFF] Lloh5: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh6: adrp x8, _avcodec@GOTPAGE Lloh7: ldr x8, [x8, _avcodec@GOTPAGEOFF] Lloh8: ldr w0, [x8] Lloh9: adrp x8, _AVCODEC@GOTPAGE Lloh10: ldr x8, [x8, _AVCODEC@GOTPAGEOFF] Lloh11: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh12: adrp x8, _avformat@GOTPAGE Lloh13: ldr x8, [x8, _avformat@GOTPAGEOFF] Lloh14: ldr w0, [x8] Lloh15: adrp x8, _AVFORMAT@GOTPAGE Lloh16: ldr x8, [x8, _AVFORMAT@GOTPAGEOFF] Lloh17: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh18: adrp x8, _avdevice@GOTPAGE Lloh19: ldr x8, [x8, _avdevice@GOTPAGEOFF] Lloh20: ldr w0, [x8] Lloh21: adrp x8, _AVDEVICE@GOTPAGE Lloh22: ldr x8, [x8, _AVDEVICE@GOTPAGEOFF] Lloh23: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh24: adrp x8, _avfilter@GOTPAGE Lloh25: ldr x8, [x8, _avfilter@GOTPAGEOFF] Lloh26: ldr w0, [x8] Lloh27: adrp x8, _AVFILTER@GOTPAGE Lloh28: ldr x8, [x8, _AVFILTER@GOTPAGEOFF] Lloh29: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh30: adrp x8, _avresample@GOTPAGE Lloh31: ldr x8, [x8, _avresample@GOTPAGEOFF] Lloh32: ldr w0, [x8] Lloh33: adrp x8, _AVRESAMPLE@GOTPAGE Lloh34: ldr x8, [x8, _AVRESAMPLE@GOTPAGEOFF] Lloh35: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh36: adrp x8, _swscale@GOTPAGE Lloh37: ldr x8, [x8, _swscale@GOTPAGEOFF] Lloh38: ldr w0, [x8] Lloh39: adrp x8, _SWSCALE@GOTPAGE Lloh40: ldr x8, [x8, _SWSCALE@GOTPAGEOFF] Lloh41: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh42: adrp x8, _swresample@GOTPAGE Lloh43: ldr x8, [x8, _swresample@GOTPAGEOFF] Lloh44: ldr w0, [x8] Lloh45: adrp x8, _SWRESAMPLE@GOTPAGE Lloh46: ldr x8, [x8, _SWRESAMPLE@GOTPAGEOFF] Lloh47: ldr w1, [x8] mov x2, x20 mov x3, x19 bl _PRINT_LIB_INFO Lloh48: adrp x8, _postproc@GOTPAGE Lloh49: ldr x8, [x8, _postproc@GOTPAGEOFF] Lloh50: adrp x9, _POSTPROC@GOTPAGE Lloh51: ldr x9, [x9, _POSTPROC@GOTPAGEOFF] Lloh52: ldr w0, [x8] Lloh53: ldr w1, [x9] mov x2, x20 mov x3, x19 ldp x29, x30, [sp, #16] ; 16-byte Folded Reload ldp x20, x19, [sp], #32 ; 16-byte Folded Reload b _PRINT_LIB_INFO .loh AdrpLdrGotLdr Lloh50, Lloh51, Lloh53 .loh AdrpLdrGotLdr Lloh48, Lloh49, Lloh52 .loh AdrpLdrGotLdr Lloh45, Lloh46, Lloh47 .loh AdrpLdrGotLdr Lloh42, Lloh43, Lloh44 .loh AdrpLdrGotLdr Lloh39, Lloh40, Lloh41 .loh AdrpLdrGotLdr Lloh36, Lloh37, Lloh38 .loh AdrpLdrGotLdr Lloh33, Lloh34, Lloh35 .loh AdrpLdrGotLdr Lloh30, Lloh31, Lloh32 .loh AdrpLdrGotLdr Lloh27, Lloh28, Lloh29 .loh AdrpLdrGotLdr Lloh24, Lloh25, Lloh26 .loh AdrpLdrGotLdr Lloh21, Lloh22, Lloh23 .loh AdrpLdrGotLdr Lloh18, Lloh19, Lloh20 .loh AdrpLdrGotLdr Lloh15, Lloh16, Lloh17 .loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14 .loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _avutil,4,2 ; @avutil .comm _AVUTIL,4,2 ; @AVUTIL .comm _avcodec,4,2 ; @avcodec .comm _AVCODEC,4,2 ; @AVCODEC .comm _avformat,4,2 ; @avformat .comm _AVFORMAT,4,2 ; @AVFORMAT .comm _avdevice,4,2 ; @avdevice .comm _AVDEVICE,4,2 ; @AVDEVICE .comm _avfilter,4,2 ; @avfilter .comm _AVFILTER,4,2 ; @AVFILTER .comm _avresample,4,2 ; @avresample .comm _AVRESAMPLE,4,2 ; @AVRESAMPLE .comm _swscale,4,2 ; @swscale .comm _SWSCALE,4,2 ; @SWSCALE .comm _swresample,4,2 ; @swresample .comm _SWRESAMPLE,4,2 ; @SWRESAMPLE .comm _postproc,4,2 ; @postproc .comm _POSTPROC,4,2 ; @POSTPROC .no_dead_strip _print_all_libs_info .subsections_via_symbols
AnghaBench/FFmpeg/fftools/extr_cmdutils.c_print_all_libs_info.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function builtin_decl_implicit _builtin_decl_implicit: ## @builtin_decl_implicit .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq _implicit_built_in_decls@GOTPCREL(%rip), %rax movq (%rax), %rax movl %edi, %ecx movl (%rax,%rcx,4), %eax popq %rbp retq .cfi_endproc ## -- End function .comm _implicit_built_in_decls,8,3 ## @implicit_built_in_decls .no_dead_strip _builtin_decl_implicit .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function builtin_decl_implicit _builtin_decl_implicit: ; @builtin_decl_implicit .cfi_startproc ; %bb.0: Lloh0: adrp x8, _implicit_built_in_decls@GOTPAGE Lloh1: ldr x8, [x8, _implicit_built_in_decls@GOTPAGEOFF] Lloh2: ldr x8, [x8] ldr w0, [x8, w0, uxtw #2] ret .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _implicit_built_in_decls,8,3 ; @implicit_built_in_decls .no_dead_strip _builtin_decl_implicit .subsections_via_symbols
AnghaBench/linux/scripts/gcc-plugins/extr_gcc-common.h_builtin_decl_implicit.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function mlx4_ACCESS_MEM _mlx4_ACCESS_MEM: ## @mlx4_ACCESS_MEM .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp subq $16, %rsp movl %r8d, %r10d movl %edx, %r8d movl %esi, %eax movl %ecx, %edx orl %esi, %edx andl $4095, %edx ## imm = 0xFFF movl %r8d, %esi andl $-128, %esi orl %edx, %esi movzbl %r10b, %edx orl %esi, %edx je LBB0_2 ## %bb.1: leaq L_.str(%rip), %rsi movl %ecx, %edx movl %eax, %ecx movl %r10d, %r9d callq _mlx4_err movq _EINVAL@GOTPCREL(%rip), %rcx xorl %eax, %eax subl (%rcx), %eax jmp LBB0_6 LBB0_2: testl %r9d, %r9d je LBB0_4 ## %bb.3: orl %r8d, %ecx orl (%rdi), %eax jmp LBB0_5 LBB0_4: movl %eax, %edx orl (%rdi), %edx orl %r8d, %ecx movl %ecx, %eax movl %edx, %ecx LBB0_5: movl %eax, -4(%rbp) movq _MLX4_CMD_ACCESS_MEM@GOTPCREL(%rip), %rax movl (%rax), %r9d movq _MLX4_CMD_TIME_CLASS_A@GOTPCREL(%rip), %rax movl (%rax), %r11d movq _MLX4_CMD_NATIVE@GOTPCREL(%rip), %rdx movl (%rdx), %eax leaq -4(%rbp), %rdx movl %ecx, %esi movl %r10d, %ecx xorl %r8d, %r8d pushq %rax pushq %r11 callq _mlx4_cmd_imm addq $16, %rsp LBB0_6: addq $16, %rsp popq %rbp retq .cfi_endproc ## -- End function .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Bad access mem params - slave_addr:0x%llx master_addr:0x%llx slave_id:%d size:%d\n" .comm _EINVAL,4,2 ## @EINVAL .comm _MLX4_CMD_ACCESS_MEM,4,2 ## @MLX4_CMD_ACCESS_MEM .comm _MLX4_CMD_TIME_CLASS_A,4,2 ## @MLX4_CMD_TIME_CLASS_A .comm _MLX4_CMD_NATIVE,4,2 ## @MLX4_CMD_NATIVE .no_dead_strip _mlx4_ACCESS_MEM .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function mlx4_ACCESS_MEM _mlx4_ACCESS_MEM: ; @mlx4_ACCESS_MEM .cfi_startproc ; %bb.0: sub sp, sp, #32 .cfi_def_cfa_offset 32 stp x29, x30, [sp, #16] ; 16-byte Folded Spill add x29, sp, #16 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 mov x9, x4 mov x4, x2 mov x8, x1 orr w10, w3, w1 and w10, w10, #0xfff and w11, w2, #0xffffff80 orr w10, w10, w11 and w11, w9, #0xff orr w10, w10, w11 cbz w10, LBB0_2 ; %bb.1: Lloh0: adrp x1, l_.str@PAGE Lloh1: add x1, x1, l_.str@PAGEOFF mov x2, x3 mov x3, x8 mov x5, x9 bl _mlx4_err Lloh2: adrp x8, _EINVAL@GOTPAGE Lloh3: ldr x8, [x8, _EINVAL@GOTPAGEOFF] Lloh4: ldr w8, [x8] neg w0, w8 b LBB0_6 LBB0_2: cbz w5, LBB0_4 ; %bb.3: orr w1, w3, w4 ldr w10, [x0] orr w8, w10, w8 b LBB0_5 LBB0_4: ldr w10, [x0] orr w1, w10, w8 orr w8, w3, w4 LBB0_5: stur w8, [x29, #-4] Lloh5: adrp x8, _MLX4_CMD_ACCESS_MEM@GOTPAGE Lloh6: ldr x8, [x8, _MLX4_CMD_ACCESS_MEM@GOTPAGEOFF] Lloh7: ldr w5, [x8] Lloh8: adrp x8, _MLX4_CMD_TIME_CLASS_A@GOTPAGE Lloh9: ldr x8, [x8, _MLX4_CMD_TIME_CLASS_A@GOTPAGEOFF] Lloh10: ldr w6, [x8] Lloh11: adrp x8, _MLX4_CMD_NATIVE@GOTPAGE Lloh12: ldr x8, [x8, _MLX4_CMD_NATIVE@GOTPAGEOFF] Lloh13: ldr w7, [x8] sub x2, x29, #4 mov x3, x9 mov w4, #0 bl _mlx4_cmd_imm LBB0_6: ldp x29, x30, [sp, #16] ; 16-byte Folded Reload add sp, sp, #32 ret .loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4 .loh AdrpAdd Lloh0, Lloh1 .loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13 .loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10 .loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7 .cfi_endproc ; -- End function .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Bad access mem params - slave_addr:0x%llx master_addr:0x%llx slave_id:%d size:%d\n" .comm _EINVAL,4,2 ; @EINVAL .comm _MLX4_CMD_ACCESS_MEM,4,2 ; @MLX4_CMD_ACCESS_MEM .comm _MLX4_CMD_TIME_CLASS_A,4,2 ; @MLX4_CMD_TIME_CLASS_A .comm _MLX4_CMD_NATIVE,4,2 ; @MLX4_CMD_NATIVE .no_dead_strip _mlx4_ACCESS_MEM .subsections_via_symbols
AnghaBench/fastsocket/kernel/drivers/net/mlx4/extr_cmd.c_mlx4_ACCESS_MEM.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function gate_rtl_unroll_and_peel_loops _gate_rtl_unroll_and_peel_loops: ## @gate_rtl_unroll_and_peel_loops .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp movq _flag_peel_loops@GOTPCREL(%rip), %rax movq (%rax), %rcx movq _flag_unroll_loops@GOTPCREL(%rip), %rax orq (%rax), %rcx movq _flag_unroll_all_loops@GOTPCREL(%rip), %rdx xorl %eax, %eax orq (%rdx), %rcx setne %al popq %rbp retq .cfi_endproc ## -- End function .comm _flag_peel_loops,8,3 ## @flag_peel_loops .comm _flag_unroll_loops,8,3 ## @flag_unroll_loops .comm _flag_unroll_all_loops,8,3 ## @flag_unroll_all_loops .no_dead_strip _gate_rtl_unroll_and_peel_loops .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function gate_rtl_unroll_and_peel_loops _gate_rtl_unroll_and_peel_loops: ; @gate_rtl_unroll_and_peel_loops .cfi_startproc ; %bb.0: Lloh0: adrp x8, _flag_peel_loops@GOTPAGE Lloh1: ldr x8, [x8, _flag_peel_loops@GOTPAGEOFF] Lloh2: ldr x8, [x8] Lloh3: adrp x9, _flag_unroll_loops@GOTPAGE Lloh4: ldr x9, [x9, _flag_unroll_loops@GOTPAGEOFF] Lloh5: ldr x9, [x9] Lloh6: adrp x10, _flag_unroll_all_loops@GOTPAGE Lloh7: ldr x10, [x10, _flag_unroll_all_loops@GOTPAGEOFF] orr x8, x8, x9 Lloh8: ldr x9, [x10] orr x8, x8, x9 cmp x8, #0 cset w0, ne ret .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _flag_peel_loops,8,3 ; @flag_peel_loops .comm _flag_unroll_loops,8,3 ; @flag_unroll_loops .comm _flag_unroll_all_loops,8,3 ; @flag_unroll_all_loops .no_dead_strip _gate_rtl_unroll_and_peel_loops .subsections_via_symbols
AnghaBench/freebsd/contrib/gcc/extr_loop-init.c_gate_rtl_unroll_and_peel_loops.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function power _power: ## @power .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r12 pushq %rbx subq $16, %rsp .cfi_offset %rbx, -48 .cfi_offset %r12, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdx, %r14 movl %esi, %ebx movq %rdi, %r15 movl %esi, %edi movq %rdx, %rsi movq %r15, %rdx callq _arg_parse movq _opt@GOTPCREL(%rip), %r12 cmpq $0, 16(%r12) je LBB0_3 ## %bb.1: movq (%r12), %rax movq _POWER_NONE@GOTPCREL(%rip), %rcx cmpq (%rcx), %rax je LBB0_3 ## %bb.2: movq _stderr@GOTPCREL(%rip), %rax movl (%rax), %edi leaq L_.str(%rip), %rsi callq _fprintf movl %ebx, %edi movq %r14, %rsi movq %r15, %rdx callq _arg_help LBB0_3: movl 24(%r12), %edi leaq -36(%rbp), %rsi movl $1, %edx movl $1, %ecx callq _open_dev cmpq $0, 16(%r12) jne LBB0_4 ## %bb.5: movq (%r12), %rsi movq _POWER_NONE@GOTPCREL(%rip), %rax movl -36(%rbp), %edi cmpq (%rax), %rsi jne LBB0_6 ## %bb.7: callq _power_show jmp LBB0_8 LBB0_4: movl -36(%rbp), %edi leaq -40(%rbp), %rbx movq %rbx, %rsi callq _read_controller_data movq %rbx, %rdi callq _power_list jmp LBB0_8 LBB0_6: movl 8(%r12), %edx xorl %ecx, %ecx callq _power_set LBB0_8: movl -36(%rbp), %edi callq _close xorl %edi, %edi callq _exit .cfi_endproc ## -- End function .comm _opt,32,3 ## @opt .comm _POWER_NONE,8,3 ## @POWER_NONE .comm _stderr,4,2 ## @stderr .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "Can't set power and list power states\n" .no_dead_strip _power .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function power _power: ; @power .cfi_startproc ; %bb.0: sub sp, sp, #80 .cfi_def_cfa_offset 80 stp x24, x23, [sp, #16] ; 16-byte Folded Spill stp x22, x21, [sp, #32] ; 16-byte Folded Spill stp x20, x19, [sp, #48] ; 16-byte Folded Spill stp x29, x30, [sp, #64] ; 16-byte Folded Spill add x29, sp, #64 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x19, x2 mov x21, x1 mov x20, x0 mov x0, x1 mov x1, x2 mov x2, x20 bl _arg_parse Lloh0: adrp x22, _opt@GOTPAGE Lloh1: ldr x22, [x22, _opt@GOTPAGEOFF] ldr x8, [x22, #16] Lloh2: adrp x23, _POWER_NONE@GOTPAGE Lloh3: ldr x23, [x23, _POWER_NONE@GOTPAGEOFF] cbz x8, LBB0_3 ; %bb.1: ldr x8, [x22] ldr x9, [x23] cmp x8, x9 b.eq LBB0_3 ; %bb.2: Lloh4: adrp x8, _stderr@GOTPAGE Lloh5: ldr x8, [x8, _stderr@GOTPAGEOFF] Lloh6: ldr w0, [x8] Lloh7: adrp x1, l_.str@PAGE Lloh8: add x1, x1, l_.str@PAGEOFF bl _fprintf mov x0, x21 mov x1, x19 mov x2, x20 bl _arg_help LBB0_3: ldr w0, [x22, #24] add x1, sp, #4 mov w2, #1 mov w3, #1 bl _open_dev ldr x8, [x22, #16] cbnz x8, LBB0_6 ; %bb.4: ldr x1, [x22] ldr x8, [x23] ldr w0, [sp, #4] cmp x1, x8 b.ne LBB0_7 ; %bb.5: bl _power_show b LBB0_8 LBB0_6: ldr w0, [sp, #4] add x1, sp, #8 bl _read_controller_data add x0, sp, #8 bl _power_list b LBB0_8 LBB0_7: ldr w2, [x22, #8] mov w3, #0 bl _power_set LBB0_8: ldr w0, [sp, #4] bl _close mov w0, #0 bl _exit .loh AdrpLdrGot Lloh2, Lloh3 .loh AdrpLdrGot Lloh0, Lloh1 .loh AdrpAdd Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6 .cfi_endproc ; -- End function .comm _opt,32,3 ; @opt .comm _POWER_NONE,8,3 ; @POWER_NONE .comm _stderr,4,2 ; @stderr .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "Can't set power and list power states\n" .no_dead_strip _power .subsections_via_symbols
AnghaBench/freebsd/sbin/nvmecontrol/extr_power.c_power.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function shader_glsl_texbem _shader_glsl_texbem: ## @shader_glsl_texbem .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp pushq %r15 pushq %r14 pushq %r13 pushq %r12 pushq %rbx subq $104, %rsp .cfi_offset %rbx, -56 .cfi_offset %r12, -48 .cfi_offset %r13, -40 .cfi_offset %r14, -32 .cfi_offset %r15, -24 movq %rdi, %r15 movq 8(%rdi), %rdi movq 8(%rdi), %rax movq 16(%r15), %rcx movq (%rcx), %rcx movl (%rcx), %r14d movq (%rax), %rax movl (%rax), %ebx movq _WINED3D_PSARGS_TEXTRANSFORM_SHIFT@GOTPCREL(%rip), %rax movl (%rax), %ecx imull %r14d, %ecx ## kill: def $cl killed $cl killed $ecx sarl %cl, %ebx movq _WINED3D_PSARGS_TEXTRANSFORM_MASK@GOTPCREL(%rip), %rax andl (%rax), %ebx xorl %r12d, %r12d leaq -48(%rbp), %r8 movl %r14d, %esi movl %r14d, %edx xorl %ecx, %ecx callq _shader_glsl_get_sample_function movl -48(%rbp), %edi leaq -78(%rbp), %r13 movq %r13, %rsi callq _shader_glsl_write_mask_to_str movq _WINED3D_PSARGS_PROJECTED@GOTPCREL(%rip), %rax movl (%rax), %eax testl %ebx, %eax je LBB0_10 ## %bb.1: notl %eax andl %eax, %ebx addl $-128, %ebx cmpl $4, %ebx ja LBB0_2 ## %bb.3: leaq LJTI0_0(%rip), %rax movslq (%rax,%rbx,4), %rcx addq %rax, %rcx jmpq *%rcx LBB0_7: movq %r13, %rbx movq _WINED3DSP_WRITEMASK_3@GOTPCREL(%rip), %rax jmp LBB0_8 LBB0_2: movq %r13, %rbx jmp LBB0_9 LBB0_6: movq %r13, %rbx movq _WINED3DSP_WRITEMASK_2@GOTPCREL(%rip), %rax jmp LBB0_8 LBB0_5: movq %r13, %rbx movq _WINED3DSP_WRITEMASK_1@GOTPCREL(%rip), %rax LBB0_8: movl (%rax), %r12d jmp LBB0_9 LBB0_4: movq %r13, %rbx leaq L_.str(%rip), %rdi callq _FIXME LBB0_9: leaq -56(%rbp), %r13 movl %r12d, %edi movq %r13, %rsi callq _shader_glsl_write_mask_to_str movq 8(%r15), %rax movl (%rax), %edi leaq L_.str.1(%rip), %rsi leaq -78(%rbp), %rcx movl %r14d, %edx movl %r14d, %r8d movq %r13, %r9 xorl %eax, %eax callq _shader_addline movq %rbx, %r13 LBB0_10: movq 24(%r15), %rsi movq _WINED3DSP_WRITEMASK_0@GOTPCREL(%rip), %rax movq _WINED3DSP_WRITEMASK_1@GOTPCREL(%rip), %rcx movl (%rcx), %edx orl (%rax), %edx leaq -72(%rbp), %rcx movq %r15, %rdi callq _shader_glsl_add_src_param movq _WINED3DSP_NOSWIZZLE@GOTPCREL(%rip), %rax movl (%rax), %ecx movl -72(%rbp), %eax movq %r13, 56(%rsp) movl %eax, 48(%rsp) movl %r14d, 40(%rsp) movq %r13, 32(%rsp) movl %r14d, 24(%rsp) leaq L_.str.2(%rip), %rax movq %rax, 16(%rsp) xorps %xmm0, %xmm0 movups %xmm0, (%rsp) leaq -48(%rbp), %rdx movq %r15, %rdi movl %r14d, %esi xorl %r8d, %r8d xorl %r9d, %r9d callq _shader_glsl_gen_sample_code movq (%r15), %rax movq _WINED3DSIH_TEXBEML@GOTPCREL(%rip), %rcx cmpq (%rcx), %rax jne LBB0_12 ## %bb.11: movq 24(%r15), %rsi movq _WINED3DSP_WRITEMASK_2@GOTPCREL(%rip), %rax movl (%rax), %edx leaq -64(%rbp), %rcx movq %r15, %rdi callq _shader_glsl_add_src_param movq 16(%r15), %rsi leaq -56(%rbp), %rdx movq %r15, %rdi callq _shader_glsl_add_dst_param movq 8(%r15), %rax movl (%rax), %edi movl -52(%rbp), %edx movslq -56(%rbp), %rcx movl -64(%rbp), %r8d movl %r14d, (%rsp) leaq L_.str.3(%rip), %rsi movl %r14d, %r9d xorl %eax, %eax callq _shader_addline LBB0_12: movq 8(%r15), %rdi leaq -48(%rbp), %rsi callq _shader_glsl_release_sample_function addq $104, %rsp popq %rbx popq %r12 popq %r13 popq %r14 popq %r15 popq %rbp retq .cfi_endproc .p2align 2, 0x90 .data_region jt32 .set L0_0_set_7, LBB0_7-LJTI0_0 .set L0_0_set_6, LBB0_6-LJTI0_0 .set L0_0_set_5, LBB0_5-LJTI0_0 .set L0_0_set_4, LBB0_4-LJTI0_0 LJTI0_0: .long L0_0_set_7 .long L0_0_set_7 .long L0_0_set_6 .long L0_0_set_5 .long L0_0_set_4 .end_data_region ## -- End function .comm _WINED3D_PSARGS_TEXTRANSFORM_SHIFT,4,2 ## @WINED3D_PSARGS_TEXTRANSFORM_SHIFT .comm _WINED3D_PSARGS_TEXTRANSFORM_MASK,4,2 ## @WINED3D_PSARGS_TEXTRANSFORM_MASK .comm _WINED3D_PSARGS_PROJECTED,4,2 ## @WINED3D_PSARGS_PROJECTED .section __TEXT,__cstring,cstring_literals L_.str: ## @.str .asciz "WINED3D_TTFF_PROJECTED with WINED3D_TTFF_COUNT1?\n" .comm _WINED3DSP_WRITEMASK_1,4,2 ## @WINED3DSP_WRITEMASK_1 .comm _WINED3DSP_WRITEMASK_2,4,2 ## @WINED3DSP_WRITEMASK_2 .comm _WINED3DSP_WRITEMASK_3,4,2 ## @WINED3DSP_WRITEMASK_3 L_.str.1: ## @.str.1 .asciz "T%u%s /= T%u%s;\n" .comm _WINED3DSP_WRITEMASK_0,4,2 ## @WINED3DSP_WRITEMASK_0 .comm _WINED3DSP_NOSWIZZLE,4,2 ## @WINED3DSP_NOSWIZZLE L_.str.2: ## @.str.2 .asciz "T%u%s + vec4(bumpenv_mat%u * %s, 0.0, 0.0)%s" .comm _WINED3DSIH_TEXBEML,8,3 ## @WINED3DSIH_TEXBEML L_.str.3: ## @.str.3 .asciz "%s%s *= (%s * bumpenv_lum_scale%u + bumpenv_lum_offset%u);\n" .no_dead_strip _shader_glsl_texbem .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function shader_glsl_texbem _shader_glsl_texbem: ; @shader_glsl_texbem .cfi_startproc ; %bb.0: sub sp, sp, #144 .cfi_def_cfa_offset 144 stp x24, x23, [sp, #80] ; 16-byte Folded Spill stp x22, x21, [sp, #96] ; 16-byte Folded Spill stp x20, x19, [sp, #112] ; 16-byte Folded Spill stp x29, x30, [sp, #128] ; 16-byte Folded Spill add x29, sp, #128 .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 .cfi_offset w19, -24 .cfi_offset w20, -32 .cfi_offset w21, -40 .cfi_offset w22, -48 .cfi_offset w23, -56 .cfi_offset w24, -64 mov x19, x0 ldr x0, [x0, #8] ldr x8, [x19, #16] ldr x9, [x0, #8] ldr x8, [x8] ldr w20, [x8] ldr x8, [x9] ldr w8, [x8] Lloh0: adrp x9, _WINED3D_PSARGS_TEXTRANSFORM_SHIFT@GOTPAGE Lloh1: ldr x9, [x9, _WINED3D_PSARGS_TEXTRANSFORM_SHIFT@GOTPAGEOFF] Lloh2: ldr w9, [x9] mul w9, w9, w20 asr w8, w8, w9 Lloh3: adrp x9, _WINED3D_PSARGS_TEXTRANSFORM_MASK@GOTPAGE Lloh4: ldr x9, [x9, _WINED3D_PSARGS_TEXTRANSFORM_MASK@GOTPAGEOFF] Lloh5: ldr w9, [x9] and w23, w8, w9 sub x4, x29, #56 mov x1, x20 mov x2, x20 mov w3, #0 bl _shader_glsl_get_sample_function ldur w0, [x29, #-56] add x21, sp, #58 add x1, sp, #58 bl _shader_glsl_write_mask_to_str Lloh6: adrp x8, _WINED3D_PSARGS_PROJECTED@GOTPAGE Lloh7: ldr x8, [x8, _WINED3D_PSARGS_PROJECTED@GOTPAGEOFF] Lloh8: ldr w8, [x8] Lloh9: adrp x22, _WINED3DSP_WRITEMASK_1@GOTPAGE Lloh10: ldr x22, [x22, _WINED3DSP_WRITEMASK_1@GOTPAGEOFF] tst w8, w23 b.eq LBB0_10 ; %bb.1: bic w8, w23, w8 sub w8, w8, #128 cmp w8, #4 b.hi LBB0_8 ; %bb.2: Lloh11: adrp x9, lJTI0_0@PAGE Lloh12: add x9, x9, lJTI0_0@PAGEOFF adr x10, LBB0_3 ldrb w11, [x9, x8] add x10, x10, x11, lsl #2 br x10 LBB0_3: Lloh13: adrp x8, _WINED3DSP_WRITEMASK_3@GOTPAGE Lloh14: ldr x8, [x8, _WINED3DSP_WRITEMASK_3@GOTPAGEOFF] b LBB0_5 LBB0_4: Lloh15: adrp x8, _WINED3DSP_WRITEMASK_2@GOTPAGE Lloh16: ldr x8, [x8, _WINED3DSP_WRITEMASK_2@GOTPAGEOFF] LBB0_5: ldr w0, [x8] b LBB0_9 LBB0_6: ldr w0, [x22] b LBB0_9 LBB0_7: Lloh17: adrp x0, l_.str@PAGE Lloh18: add x0, x0, l_.str@PAGEOFF bl _FIXME LBB0_8: mov w0, #0 LBB0_9: add x23, sp, #40 add x1, sp, #40 bl _shader_glsl_write_mask_to_str ldr x8, [x19, #8] ldr w0, [x8] Lloh19: adrp x1, l_.str.1@PAGE Lloh20: add x1, x1, l_.str.1@PAGEOFF str x23, [sp] add x3, sp, #58 mov x2, x20 mov x4, x20 bl _shader_addline LBB0_10: ldr x1, [x19, #24] Lloh21: adrp x8, _WINED3DSP_WRITEMASK_0@GOTPAGE Lloh22: ldr x8, [x8, _WINED3DSP_WRITEMASK_0@GOTPAGEOFF] Lloh23: ldr w8, [x8] ldr w9, [x22] orr w2, w9, w8 add x3, sp, #64 mov x0, x19 bl _shader_glsl_add_src_param Lloh24: adrp x8, _WINED3DSP_NOSWIZZLE@GOTPAGE Lloh25: ldr x8, [x8, _WINED3DSP_NOSWIZZLE@GOTPAGEOFF] Lloh26: ldr w3, [x8] ldr w8, [sp, #64] str x21, [sp, #32] stp w20, w8, [sp, #24] str x21, [sp, #16] str w20, [sp, #8] Lloh27: adrp x8, l_.str.2@PAGE Lloh28: add x8, x8, l_.str.2@PAGEOFF str x8, [sp] sub x2, x29, #56 mov x0, x19 mov x1, x20 mov x4, #0 mov x5, #0 mov x6, #0 mov x7, #0 bl _shader_glsl_gen_sample_code ldr x8, [x19] Lloh29: adrp x9, _WINED3DSIH_TEXBEML@GOTPAGE Lloh30: ldr x9, [x9, _WINED3DSIH_TEXBEML@GOTPAGEOFF] Lloh31: ldr x9, [x9] cmp x8, x9 b.ne LBB0_12 ; %bb.11: ldr x1, [x19, #24] Lloh32: adrp x8, _WINED3DSP_WRITEMASK_2@GOTPAGE Lloh33: ldr x8, [x8, _WINED3DSP_WRITEMASK_2@GOTPAGEOFF] Lloh34: ldr w2, [x8] add x3, sp, #48 mov x0, x19 bl _shader_glsl_add_src_param ldr x1, [x19, #16] add x2, sp, #40 mov x0, x19 bl _shader_glsl_add_dst_param ldr x8, [x19, #8] ldr w0, [x8] ldp w3, w2, [sp, #40] ; kill: def $w3 killed $w3 def $x3 sxtw x3, w3 ldr w4, [sp, #48] Lloh35: adrp x1, l_.str.3@PAGE Lloh36: add x1, x1, l_.str.3@PAGEOFF stp x20, x20, [sp] bl _shader_addline LBB0_12: ldr x0, [x19, #8] sub x1, x29, #56 bl _shader_glsl_release_sample_function ldp x29, x30, [sp, #128] ; 16-byte Folded Reload ldp x20, x19, [sp, #112] ; 16-byte Folded Reload ldp x22, x21, [sp, #96] ; 16-byte Folded Reload ldp x24, x23, [sp, #80] ; 16-byte Folded Reload add sp, sp, #144 ret .loh AdrpLdrGot Lloh9, Lloh10 .loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8 .loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .loh AdrpAdd Lloh11, Lloh12 .loh AdrpLdrGot Lloh13, Lloh14 .loh AdrpLdrGot Lloh15, Lloh16 .loh AdrpAdd Lloh17, Lloh18 .loh AdrpAdd Lloh19, Lloh20 .loh AdrpLdrGotLdr Lloh29, Lloh30, Lloh31 .loh AdrpAdd Lloh27, Lloh28 .loh AdrpLdrGotLdr Lloh24, Lloh25, Lloh26 .loh AdrpLdrGotLdr Lloh21, Lloh22, Lloh23 .loh AdrpAdd Lloh35, Lloh36 .loh AdrpLdrGotLdr Lloh32, Lloh33, Lloh34 .cfi_endproc .section __TEXT,__const lJTI0_0: .byte (LBB0_3-LBB0_3)>>2 .byte (LBB0_3-LBB0_3)>>2 .byte (LBB0_4-LBB0_3)>>2 .byte (LBB0_6-LBB0_3)>>2 .byte (LBB0_7-LBB0_3)>>2 ; -- End function .comm _WINED3D_PSARGS_TEXTRANSFORM_SHIFT,4,2 ; @WINED3D_PSARGS_TEXTRANSFORM_SHIFT .comm _WINED3D_PSARGS_TEXTRANSFORM_MASK,4,2 ; @WINED3D_PSARGS_TEXTRANSFORM_MASK .comm _WINED3D_PSARGS_PROJECTED,4,2 ; @WINED3D_PSARGS_PROJECTED .section __TEXT,__cstring,cstring_literals l_.str: ; @.str .asciz "WINED3D_TTFF_PROJECTED with WINED3D_TTFF_COUNT1?\n" .comm _WINED3DSP_WRITEMASK_1,4,2 ; @WINED3DSP_WRITEMASK_1 .comm _WINED3DSP_WRITEMASK_2,4,2 ; @WINED3DSP_WRITEMASK_2 .comm _WINED3DSP_WRITEMASK_3,4,2 ; @WINED3DSP_WRITEMASK_3 l_.str.1: ; @.str.1 .asciz "T%u%s /= T%u%s;\n" .comm _WINED3DSP_WRITEMASK_0,4,2 ; @WINED3DSP_WRITEMASK_0 .comm _WINED3DSP_NOSWIZZLE,4,2 ; @WINED3DSP_NOSWIZZLE l_.str.2: ; @.str.2 .asciz "T%u%s + vec4(bumpenv_mat%u * %s, 0.0, 0.0)%s" .comm _WINED3DSIH_TEXBEML,8,3 ; @WINED3DSIH_TEXBEML l_.str.3: ; @.str.3 .asciz "%s%s *= (%s * bumpenv_lum_scale%u + bumpenv_lum_offset%u);\n" .no_dead_strip _shader_glsl_texbem .subsections_via_symbols
AnghaBench/reactos/dll/directx/wine/wined3d/extr_glsl_shader.c_shader_glsl_texbem.c
anghabench
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _foo ## -- Begin function foo .p2align 4, 0x90 _foo: ## @foo .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp .p2align 4, 0x90 LBB0_1: ## =>This Inner Loop Header: Depth=1 jmp LBB0_1 .cfi_endproc ## -- End function .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .globl _foo ; -- Begin function foo .p2align 2 _foo: ; @foo .cfi_startproc ; %bb.0: LBB0_1: ; =>This Inner Loop Header: Depth=1 b LBB0_1 .cfi_endproc ; -- End function .subsections_via_symbols
the_stack_data/130634.c
stack
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 4, 0x90 ## -- Begin function dm_init_rxpath_selection _dm_init_rxpath_selection: ## @dm_init_rxpath_selection .cfi_startproc ## %bb.0: pushq %rbp .cfi_def_cfa_offset 16 .cfi_offset %rbp, -16 movq %rsp, %rbp .cfi_def_cfa_register %rbp callq _ieee80211_priv movq (%rax), %rax movq _RT_CID_819x_Netcore@GOTPCREL(%rip), %rcx cmpq (%rcx), %rax jne LBB0_1 ## %bb.2: movq _CCK_RX_VERSION_2@GOTPCREL(%rip), %rax jmp LBB0_3 LBB0_1: movq _CCK_RX_VERSION_1@GOTPCREL(%rip), %rax LBB0_3: movl (%rax), %eax movq _DM_RxPathSelTable@GOTPCREL(%rip), %rcx movl %eax, 32(%rcx) movq $0, 24(%rcx) movq (%rcx), %rax movq 8(%rcx), %rdx movq 16(%rcx), %rcx movl $50, (%rax) movl $-64, (%rdx) movl $100, (%rcx) movl $50, 4(%rax) movl $-64, 4(%rdx) movl $100, 4(%rcx) movl $50, 8(%rax) movl $-64, 8(%rdx) movl $100, 8(%rcx) movl $50, 12(%rax) movl $-64, 12(%rdx) movl $100, 12(%rcx) popq %rbp retq .cfi_endproc ## -- End function .comm _RT_CID_819x_Netcore,8,3 ## @RT_CID_819x_Netcore .comm _CCK_RX_VERSION_2,4,2 ## @CCK_RX_VERSION_2 .comm _DM_RxPathSelTable,40,3 ## @DM_RxPathSelTable .comm _CCK_RX_VERSION_1,4,2 ## @CCK_RX_VERSION_1 .no_dead_strip _dm_init_rxpath_selection .subsections_via_symbols
.section __TEXT,__text,regular,pure_instructions .build_version macos, 13, 0 sdk_version 13, 3 .p2align 2 ; -- Begin function dm_init_rxpath_selection _dm_init_rxpath_selection: ; @dm_init_rxpath_selection .cfi_startproc ; %bb.0: stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill .cfi_def_cfa_offset 16 mov x29, sp .cfi_def_cfa w29, 16 .cfi_offset w30, -8 .cfi_offset w29, -16 bl _ieee80211_priv ldr x8, [x0] Lloh0: adrp x9, _RT_CID_819x_Netcore@GOTPAGE Lloh1: ldr x9, [x9, _RT_CID_819x_Netcore@GOTPAGEOFF] Lloh2: ldr x9, [x9] Lloh3: adrp x10, _CCK_RX_VERSION_2@GOTPAGE Lloh4: ldr x10, [x10, _CCK_RX_VERSION_2@GOTPAGEOFF] Lloh5: adrp x11, _CCK_RX_VERSION_1@GOTPAGE Lloh6: ldr x11, [x11, _CCK_RX_VERSION_1@GOTPAGEOFF] cmp x8, x9 csel x8, x10, x11, eq ldr w8, [x8] Lloh7: adrp x9, _DM_RxPathSelTable@GOTPAGE Lloh8: ldr x9, [x9, _DM_RxPathSelTable@GOTPAGEOFF] str w8, [x9, #32] str xzr, [x9, #24] ldp x8, x10, [x9] ldr x9, [x9, #16] mov w11, #50 str w11, [x8] mov w12, #-64 str w12, [x10] mov w13, #100 str w13, [x9] str w11, [x8, #4] str w12, [x10, #4] str w13, [x9, #4] str w11, [x8, #8] str w12, [x10, #8] str w13, [x9, #8] str w11, [x8, #12] str w12, [x10, #12] str w13, [x9, #12] ldp x29, x30, [sp], #16 ; 16-byte Folded Reload ret .loh AdrpLdrGot Lloh7, Lloh8 .loh AdrpLdrGot Lloh5, Lloh6 .loh AdrpLdrGot Lloh3, Lloh4 .loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2 .cfi_endproc ; -- End function .comm _RT_CID_819x_Netcore,8,3 ; @RT_CID_819x_Netcore .comm _CCK_RX_VERSION_2,4,2 ; @CCK_RX_VERSION_2 .comm _DM_RxPathSelTable,40,3 ; @DM_RxPathSelTable .comm _CCK_RX_VERSION_1,4,2 ; @CCK_RX_VERSION_1 .no_dead_strip _dm_init_rxpath_selection .subsections_via_symbols
AnghaBench/linux/drivers/staging/rtl8192u/extr_r8192U_dm.c_dm_init_rxpath_selection.c
anghabench