x86 stringlengths 122 9.39M | arm stringlengths 122 9.33M | file stringlengths 19 200 | source stringclasses 2
values |
|---|---|---|---|
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__const
.globl _http_http ## @http_http
_http_http:
.asciz "http://"
.globl _http_200 ## @http_200
_http_200:
.asciz "200 "
.globl _http_301 ## @http_301
_http_301:
.asciz "301 "
.globl _http_302 ## @http_302
_http_302:
.asciz "302 "
.globl _http_get ## @http_get
_http_get:
.asciz "GET "
.globl _http_10 ## @http_10
_http_10:
.asciz "HTTP/1.0"
.globl _http_11 ## @http_11
_http_11:
.asciz "HTTP/1.1"
.globl _http_content_type ## @http_content_type
_http_content_type:
.asciz "content-type: "
.globl _http_texthtml ## @http_texthtml
_http_texthtml:
.asciz "text/html"
.globl _http_location ## @http_location
_http_location:
.asciz "location: "
.globl _http_host ## @http_host
_http_host:
.asciz "host: "
.globl _http_crnl ## @http_crnl
_http_crnl:
.asciz "\r\n"
.globl _http_index_html ## @http_index_html
_http_index_html:
.asciz "/index.html"
.globl _http_404_html ## @http_404_html
_http_404_html:
.asciz "/404.html"
.globl _http_referer ## @http_referer
_http_referer:
.asciz "Referer:"
.globl _http_header_200 ## @http_header_200
.p2align 4
_http_header_200:
.asciz "HTTP/1.0 200 OK\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n"
.globl _http_header_404 ## @http_header_404
.p2align 4
_http_header_404:
.asciz "HTTP/1.0 404 Not found\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n"
.globl _http_content_type_plain ## @http_content_type_plain
.p2align 4
_http_content_type_plain:
.asciz "Content-type: text/plain\r\n\r\n"
.globl _http_content_type_html ## @http_content_type_html
.p2align 4
_http_content_type_html:
.asciz "Content-type: text/html\r\n\r\n"
.globl _http_content_type_css ## @http_content_type_css
.p2align 4
_http_content_type_css:
.asciz "Content-type: text/css\r\n\r\n"
.globl _http_content_type_text ## @http_content_type_text
.p2align 4
_http_content_type_text:
.asciz "Content-type: text/text\r\n\r\n"
.globl _http_content_type_png ## @http_content_type_png
.p2align 4
_http_content_type_png:
.asciz "Content-type: image/png\r\n\r\n"
.globl _http_content_type_gif ## @http_content_type_gif
.p2align 4
_http_content_type_gif:
.asciz "Content-type: image/gif\r\n\r\n"
.globl _http_content_type_jpg ## @http_content_type_jpg
.p2align 4
_http_content_type_jpg:
.asciz "Content-type: image/jpeg\r\n\r\n"
.globl _http_content_type_binary ## @http_content_type_binary
.p2align 4
_http_content_type_binary:
.asciz "Content-type: application/octet-stream\r\n\r\n"
.globl _http_html ## @http_html
_http_html:
.asciz ".html"
.globl _http_shtml ## @http_shtml
_http_shtml:
.asciz ".shtml"
.globl _http_htm ## @http_htm
_http_htm:
.asciz ".htm"
.globl _http_css ## @http_css
_http_css:
.asciz ".css"
.globl _http_png ## @http_png
_http_png:
.asciz ".png"
.globl _http_gif ## @http_gif
_http_gif:
.asciz ".gif"
.globl _http_jpg ## @http_jpg
_http_jpg:
.asciz ".jpg"
.globl _http_text ## @http_text
_http_text:
.asciz ".txt"
.globl _http_txt ## @http_txt
_http_txt:
.asciz ".txt"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__const
.globl _http_http ; @http_http
_http_http:
.asciz "http://"
.globl _http_200 ; @http_200
_http_200:
.asciz "200 "
.globl _http_301 ; @http_301
_http_301:
.asciz "301 "
.globl _http_302 ; @http_302
_http_302:
.asciz "302 "
.globl _http_get ; @http_get
_http_get:
.asciz "GET "
.globl _http_10 ; @http_10
_http_10:
.asciz "HTTP/1.0"
.globl _http_11 ; @http_11
_http_11:
.asciz "HTTP/1.1"
.globl _http_content_type ; @http_content_type
_http_content_type:
.asciz "content-type: "
.globl _http_texthtml ; @http_texthtml
_http_texthtml:
.asciz "text/html"
.globl _http_location ; @http_location
_http_location:
.asciz "location: "
.globl _http_host ; @http_host
_http_host:
.asciz "host: "
.globl _http_crnl ; @http_crnl
_http_crnl:
.asciz "\r\n"
.globl _http_index_html ; @http_index_html
_http_index_html:
.asciz "/index.html"
.globl _http_404_html ; @http_404_html
_http_404_html:
.asciz "/404.html"
.globl _http_referer ; @http_referer
_http_referer:
.asciz "Referer:"
.globl _http_header_200 ; @http_header_200
_http_header_200:
.asciz "HTTP/1.0 200 OK\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n"
.globl _http_header_404 ; @http_header_404
_http_header_404:
.asciz "HTTP/1.0 404 Not found\r\nServer: uIP/1.0 http://www.sics.se/~adam/uip/\r\nConnection: close\r\n"
.globl _http_content_type_plain ; @http_content_type_plain
_http_content_type_plain:
.asciz "Content-type: text/plain\r\n\r\n"
.globl _http_content_type_html ; @http_content_type_html
_http_content_type_html:
.asciz "Content-type: text/html\r\n\r\n"
.globl _http_content_type_css ; @http_content_type_css
_http_content_type_css:
.asciz "Content-type: text/css\r\n\r\n"
.globl _http_content_type_text ; @http_content_type_text
_http_content_type_text:
.asciz "Content-type: text/text\r\n\r\n"
.globl _http_content_type_png ; @http_content_type_png
_http_content_type_png:
.asciz "Content-type: image/png\r\n\r\n"
.globl _http_content_type_gif ; @http_content_type_gif
_http_content_type_gif:
.asciz "Content-type: image/gif\r\n\r\n"
.globl _http_content_type_jpg ; @http_content_type_jpg
_http_content_type_jpg:
.asciz "Content-type: image/jpeg\r\n\r\n"
.globl _http_content_type_binary ; @http_content_type_binary
_http_content_type_binary:
.asciz "Content-type: application/octet-stream\r\n\r\n"
.globl _http_html ; @http_html
_http_html:
.asciz ".html"
.globl _http_shtml ; @http_shtml
_http_shtml:
.asciz ".shtml"
.globl _http_htm ; @http_htm
_http_htm:
.asciz ".htm"
.globl _http_css ; @http_css
_http_css:
.asciz ".css"
.globl _http_png ; @http_png
_http_png:
.asciz ".png"
.globl _http_gif ; @http_gif
_http_gif:
.asciz ".gif"
.globl _http_jpg ; @http_jpg
_http_jpg:
.asciz ".jpg"
.globl _http_text ; @http_text
_http_text:
.asciz ".txt"
.globl _http_txt ; @http_txt
_http_txt:
.asciz ".txt"
.subsections_via_symbols
| the_stack_data/1260662.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function set_misc_reg
_set_misc_reg: ## @set_misc_reg
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdi, %rbx
movl (%rdi), %r14d
callq _PRIV
movq %rax, %r15
movl (%rax), %eax
movq _HAS_MISC_REG@GOTPCREL(%rip), %rcx
testl %eax, (%rcx)
je LBB0_2
## %bb.1:
movq _PCNET_MISC@GOTPCREL(%rip), %r12
movq (%r12), %rdi
addq %r14, %rdi
callq _inb_p
## kill: def $eax killed $eax def $rax
andl $-4, %eax
xorl %ecx, %ecx
cmpl $2, 4(%rbx)
sete %cl
leal (%rax,%rcx), %edx
movl (%r15), %esi
movq _USE_BIG_BUF@GOTPCREL(%rip), %rdi
movl (%rdi), %edi
andl %esi, %edi
leal 2(%rax,%rcx), %eax
cmovel %edx, %eax
movq _HAS_IBM_MISC@GOTPCREL(%rip), %rcx
andl (%rcx), %esi
movl %eax, %edi
orl $8, %edi
testl %esi, %esi
cmovel %eax, %edi
movq (%r12), %rsi
addq %r14, %rsi
callq _outb_p
movl (%r15), %eax
LBB0_2:
movq _IS_DL10022@GOTPCREL(%rip), %rcx
testl %eax, (%rcx)
je LBB0_6
## %bb.3:
movq _HAS_MII@GOTPCREL(%rip), %rcx
testl %eax, (%rcx)
je LBB0_5
## %bb.4:
movq _DLINK_GPIO@GOTPCREL(%rip), %rbx
movq (%rbx), %rdi
addq %r14, %rdi
movl 4(%r15), %esi
movl $4, %edx
movl $481, %ecx ## imm = 0x1E1
callq _mdio_write
movq (%rbx), %rdi
addq %r14, %rdi
movl 4(%r15), %esi
xorl %edx, %edx
xorl %ecx, %ecx
callq _mdio_write
movq (%rbx), %rdi
addq %r14, %rdi
movl 4(%r15), %esi
xorl %edx, %edx
movl $4608, %ecx ## imm = 0x1200
callq _mdio_write
movq _jiffies@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, 8(%r15)
jmp LBB0_7
LBB0_6:
movq _IS_DL10019@GOTPCREL(%rip), %rcx
testl %eax, (%rcx)
je LBB0_7
## %bb.8:
movq _DLINK_GPIO@GOTPCREL(%rip), %rbx
movq (%rbx), %rdi
addq %r14, %rdi
movl 4(%r15), %esi
movl $4, %edx
movl $481, %ecx ## imm = 0x1E1
callq _mdio_write
movq (%rbx), %rdi
addq %r14, %rdi
movl 4(%r15), %esi
xorl %edx, %edx
xorl %ecx, %ecx
callq _mdio_write
addq (%rbx), %r14
movl 4(%r15), %esi
movq %r14, %rdi
xorl %edx, %edx
movl $4608, %ecx ## imm = 0x1200
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
jmp _mdio_write ## TAILCALL
LBB0_7:
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
LBB0_5:
movq _full_duplex@GOTPCREL(%rip), %rax
xorl %edi, %edi
cmpq $0, (%rax)
setne %dil
shll $2, %edi
movq _DLINK_DIAG@GOTPCREL(%rip), %rax
addq (%rax), %r14
movq %r14, %rsi
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
jmp _outb ## TAILCALL
.cfi_endproc
## -- End function
.comm _HAS_MISC_REG,4,2 ## @HAS_MISC_REG
.comm _PCNET_MISC,8,3 ## @PCNET_MISC
.comm _USE_BIG_BUF,4,2 ## @USE_BIG_BUF
.comm _HAS_IBM_MISC,4,2 ## @HAS_IBM_MISC
.comm _IS_DL10022,4,2 ## @IS_DL10022
.comm _HAS_MII,4,2 ## @HAS_MII
.comm _DLINK_GPIO,8,3 ## @DLINK_GPIO
.comm _jiffies,4,2 ## @jiffies
.comm _full_duplex,8,3 ## @full_duplex
.comm _DLINK_DIAG,8,3 ## @DLINK_DIAG
.comm _IS_DL10019,4,2 ## @IS_DL10019
.no_dead_strip _set_misc_reg
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function set_misc_reg
_set_misc_reg: ; @set_misc_reg
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x20, x0
ldr w21, [x0]
bl _PRIV
mov x19, x0
ldr w8, [x0]
Lloh0:
adrp x9, _HAS_MISC_REG@GOTPAGE
Lloh1:
ldr x9, [x9, _HAS_MISC_REG@GOTPAGEOFF]
Lloh2:
ldr w9, [x9]
tst w9, w8
b.eq LBB0_2
; %bb.1:
Lloh3:
adrp x22, _PCNET_MISC@GOTPAGE
Lloh4:
ldr x22, [x22, _PCNET_MISC@GOTPAGEOFF]
ldr x8, [x22]
add x0, x8, x21
bl _inb_p
and w8, w0, #0xfffffffc
ldr w9, [x20, #4]
cmp w9, #2
cset w9, eq
orr w8, w8, w9
ldr w9, [x19]
Lloh5:
adrp x10, _USE_BIG_BUF@GOTPAGE
Lloh6:
ldr x10, [x10, _USE_BIG_BUF@GOTPAGEOFF]
Lloh7:
ldr w10, [x10]
orr w11, w8, #0x2
tst w10, w9
csel w8, w8, w11, eq
Lloh8:
adrp x10, _HAS_IBM_MISC@GOTPAGE
Lloh9:
ldr x10, [x10, _HAS_IBM_MISC@GOTPAGEOFF]
Lloh10:
ldr w10, [x10]
orr w11, w8, #0x8
tst w10, w9
csel w0, w8, w11, eq
ldr x8, [x22]
add x1, x8, x21
bl _outb_p
ldr w8, [x19]
LBB0_2:
Lloh11:
adrp x9, _IS_DL10022@GOTPAGE
Lloh12:
ldr x9, [x9, _IS_DL10022@GOTPAGEOFF]
Lloh13:
ldr w9, [x9]
tst w9, w8
b.eq LBB0_5
; %bb.3:
Lloh14:
adrp x9, _HAS_MII@GOTPAGE
Lloh15:
ldr x9, [x9, _HAS_MII@GOTPAGEOFF]
Lloh16:
ldr w9, [x9]
tst w9, w8
b.eq LBB0_8
; %bb.4:
Lloh17:
adrp x20, _DLINK_GPIO@GOTPAGE
Lloh18:
ldr x20, [x20, _DLINK_GPIO@GOTPAGEOFF]
ldr x8, [x20]
add x0, x8, x21
ldr w1, [x19, #4]
mov w2, #4
mov w3, #481
bl _mdio_write
ldr x8, [x20]
add x0, x8, x21
ldr w1, [x19, #4]
mov w2, #0
mov w3, #0
bl _mdio_write
ldr x8, [x20]
add x0, x8, x21
ldr w1, [x19, #4]
mov w2, #0
mov w3, #4608
bl _mdio_write
Lloh19:
adrp x8, _jiffies@GOTPAGE
Lloh20:
ldr x8, [x8, _jiffies@GOTPAGEOFF]
Lloh21:
ldr w8, [x8]
str w8, [x19, #8]
b LBB0_7
LBB0_5:
Lloh22:
adrp x9, _IS_DL10019@GOTPAGE
Lloh23:
ldr x9, [x9, _IS_DL10019@GOTPAGEOFF]
Lloh24:
ldr w9, [x9]
tst w9, w8
b.eq LBB0_7
; %bb.6:
Lloh25:
adrp x20, _DLINK_GPIO@GOTPAGE
Lloh26:
ldr x20, [x20, _DLINK_GPIO@GOTPAGEOFF]
ldr x8, [x20]
add x0, x8, x21
ldr w1, [x19, #4]
mov w2, #4
mov w3, #481
bl _mdio_write
ldr x8, [x20]
add x0, x8, x21
ldr w1, [x19, #4]
mov w2, #0
mov w3, #0
bl _mdio_write
ldr x8, [x20]
add x0, x8, x21
ldr w1, [x19, #4]
mov w2, #0
mov w3, #4608
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b _mdio_write
LBB0_7:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
LBB0_8:
Lloh27:
adrp x8, _full_duplex@GOTPAGE
Lloh28:
ldr x8, [x8, _full_duplex@GOTPAGEOFF]
Lloh29:
ldr x8, [x8]
cmp x8, #0
cset w8, ne
lsl w0, w8, #2
Lloh30:
adrp x8, _DLINK_DIAG@GOTPAGE
Lloh31:
ldr x8, [x8, _DLINK_DIAG@GOTPAGEOFF]
Lloh32:
ldr x8, [x8]
add x1, x8, x21
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b _outb
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.loh AdrpLdrGot Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh14, Lloh15, Lloh16
.loh AdrpLdrGotLdr Lloh19, Lloh20, Lloh21
.loh AdrpLdrGot Lloh17, Lloh18
.loh AdrpLdrGotLdr Lloh22, Lloh23, Lloh24
.loh AdrpLdrGot Lloh25, Lloh26
.loh AdrpLdrGotLdr Lloh30, Lloh31, Lloh32
.loh AdrpLdrGotLdr Lloh27, Lloh28, Lloh29
.cfi_endproc
; -- End function
.comm _HAS_MISC_REG,4,2 ; @HAS_MISC_REG
.comm _PCNET_MISC,8,3 ; @PCNET_MISC
.comm _USE_BIG_BUF,4,2 ; @USE_BIG_BUF
.comm _HAS_IBM_MISC,4,2 ; @HAS_IBM_MISC
.comm _IS_DL10022,4,2 ; @IS_DL10022
.comm _HAS_MII,4,2 ; @HAS_MII
.comm _DLINK_GPIO,8,3 ; @DLINK_GPIO
.comm _jiffies,4,2 ; @jiffies
.comm _full_duplex,8,3 ; @full_duplex
.comm _DLINK_DIAG,8,3 ; @DLINK_DIAG
.comm _IS_DL10019,4,2 ; @IS_DL10019
.no_dead_strip _set_misc_reg
.subsections_via_symbols
| AnghaBench/linux/drivers/net/ethernet/8390/extr_pcnet_cs.c_set_misc_reg.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function genericbl_send_intensity
_genericbl_send_intensity: ## @genericbl_send_intensity
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq 8(%rdi), %rsi
movq _FB_BLANK_UNBLANK@GOTPCREL(%rip), %r8
movq _BL_CORE_FBBLANK@GOTPCREL(%rip), %rax
movq _BL_CORE_SUSPENDED@GOTPCREL(%rip), %rcx
movl (%rcx), %ecx
orl (%rax), %ecx
xorl %ebx, %ebx
movl 16(%rdi), %eax
movl $0, %edx
cmpq (%r8), %rsi
jne LBB0_2
## %bb.1:
movl (%rdi), %edx
LBB0_2:
testl %eax, %ecx
cmovel %edx, %ebx
movq _GENERICBL_BATTLOW@GOTPCREL(%rip), %rdx
movq _bl_machinfo@GOTPCREL(%rip), %r14
movq (%r14), %rcx
testl %eax, (%rdx)
je LBB0_4
## %bb.3:
andl (%rcx), %ebx
LBB0_4:
movl %ebx, %edi
callq *16(%rcx)
movq _genericbl_intensity@GOTPCREL(%rip), %rax
movl %ebx, (%rax)
movq (%r14), %rax
movq 8(%rax), %rcx
testq %rcx, %rcx
je LBB0_6
## %bb.5:
xorl %eax, %eax
callq *%rcx
LBB0_6:
xorl %eax, %eax
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _FB_BLANK_UNBLANK,8,3 ## @FB_BLANK_UNBLANK
.comm _BL_CORE_FBBLANK,4,2 ## @BL_CORE_FBBLANK
.comm _BL_CORE_SUSPENDED,4,2 ## @BL_CORE_SUSPENDED
.comm _GENERICBL_BATTLOW,4,2 ## @GENERICBL_BATTLOW
.comm _bl_machinfo,8,3 ## @bl_machinfo
.comm _genericbl_intensity,4,2 ## @genericbl_intensity
.no_dead_strip _genericbl_send_intensity
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function genericbl_send_intensity
_genericbl_send_intensity: ; @genericbl_send_intensity
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
ldr w8, [x0]
ldr x9, [x0, #8]
Lloh0:
adrp x10, _FB_BLANK_UNBLANK@GOTPAGE
Lloh1:
ldr x10, [x10, _FB_BLANK_UNBLANK@GOTPAGEOFF]
Lloh2:
ldr x10, [x10]
cmp x9, x10
ldr w9, [x0, #16]
Lloh3:
adrp x10, _BL_CORE_FBBLANK@GOTPAGE
Lloh4:
ldr x10, [x10, _BL_CORE_FBBLANK@GOTPAGEOFF]
Lloh5:
ldr w10, [x10]
Lloh6:
adrp x11, _BL_CORE_SUSPENDED@GOTPAGE
Lloh7:
ldr x11, [x11, _BL_CORE_SUSPENDED@GOTPAGEOFF]
Lloh8:
ldr w11, [x11]
orr w10, w11, w10
and w10, w10, w9
ccmp w10, #0, #0, eq
Lloh9:
adrp x10, _GENERICBL_BATTLOW@GOTPAGE
Lloh10:
ldr x10, [x10, _GENERICBL_BATTLOW@GOTPAGEOFF]
csel w19, w8, wzr, eq
Lloh11:
ldr w10, [x10]
Lloh12:
adrp x20, _bl_machinfo@GOTPAGE
Lloh13:
ldr x20, [x20, _bl_machinfo@GOTPAGEOFF]
ldr x8, [x20]
tst w10, w9
b.eq LBB0_2
; %bb.1:
ldr w9, [x8]
and w19, w9, w19
LBB0_2:
ldr x8, [x8, #16]
mov x0, x19
blr x8
Lloh14:
adrp x8, _genericbl_intensity@GOTPAGE
Lloh15:
ldr x8, [x8, _genericbl_intensity@GOTPAGEOFF]
Lloh16:
str w19, [x8]
ldr x8, [x20]
ldr x8, [x8, #8]
cbz x8, LBB0_4
; %bb.3:
blr x8
LBB0_4:
mov w0, #0
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpLdrGot Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotStr Lloh14, Lloh15, Lloh16
.cfi_endproc
; -- End function
.comm _FB_BLANK_UNBLANK,8,3 ; @FB_BLANK_UNBLANK
.comm _BL_CORE_FBBLANK,4,2 ; @BL_CORE_FBBLANK
.comm _BL_CORE_SUSPENDED,4,2 ; @BL_CORE_SUSPENDED
.comm _GENERICBL_BATTLOW,4,2 ; @GENERICBL_BATTLOW
.comm _bl_machinfo,8,3 ; @bl_machinfo
.comm _genericbl_intensity,4,2 ; @genericbl_intensity
.no_dead_strip _genericbl_send_intensity
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/drivers/video/backlight/extr_generic_bl.c_genericbl_send_intensity.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ## -- Begin function main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $24, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
leaq L_.str(%rip), %rdi
xorl %r13d, %r13d
leaq -44(%rbp), %rsi
xorl %eax, %eax
callq _scanf
cmpl $0, -44(%rbp)
jle LBB0_3
## %bb.1:
leaq L_.str(%rip), %r14
leaq -52(%rbp), %r15
movq _arr@GOTPCREL(%rip), %r12
xorl %ebx, %ebx
.p2align 4, 0x90
LBB0_2: ## =>This Inner Loop Header: Depth=1
movq %r14, %rdi
movq %r15, %rsi
xorl %eax, %eax
callq _scanf
movslq -52(%rbp), %rax
incl (%r12,%rax,4)
incl %ebx
cmpl -44(%rbp), %ebx
jl LBB0_2
LBB0_3:
leaq L_.str(%rip), %rdi
leaq -48(%rbp), %rsi
xorl %eax, %eax
callq _scanf
movl $100000, %eax ## imm = 0x186A0
movl -48(%rbp), %ecx
movq _arr@GOTPCREL(%rip), %rdi
.p2align 4, 0x90
LBB0_4: ## =>This Inner Loop Header: Depth=1
movl %eax, %edx
movl (%rdi,%rdx,4), %edx
cmpl $1, %edx
sbbl $-1, %r13d
cmpl %ecx, %r13d
je LBB0_5
## %bb.8: ## in Loop: Header=BB0_4 Depth=1
testl %eax, %eax
je LBB0_7
## %bb.9: ## in Loop: Header=BB0_4 Depth=1
leal -1(%rax), %esi
movl (%rdi,%rsi,4), %edx
cmpl $1, %edx
sbbl $-1, %r13d
cmpl %ecx, %r13d
je LBB0_6
## %bb.10: ## in Loop: Header=BB0_4 Depth=1
addl $-2, %eax
jmp LBB0_4
LBB0_5:
movl %eax, %esi
LBB0_6:
leaq L_.str.1(%rip), %rdi
## kill: def $esi killed $esi killed $rsi
xorl %eax, %eax
callq _printf
LBB0_7:
xorl %eax, %eax
addq $24, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "%d"
.comm _arr,400040,4 ## @arr
L_.str.1: ## @.str.1
.asciz "%d %d"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
sub sp, sp, #80
.cfi_def_cfa_offset 80
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
add x8, sp, #28
str x8, [sp]
Lloh0:
adrp x0, l_.str@PAGE
Lloh1:
add x0, x0, l_.str@PAGEOFF
bl _scanf
ldr w8, [sp, #28]
Lloh2:
adrp x20, _arr@GOTPAGE
Lloh3:
ldr x20, [x20, _arr@GOTPAGEOFF]
cmp w8, #1
b.lt LBB0_3
; %bb.1:
mov w21, #0
add x22, sp, #24
Lloh4:
adrp x19, l_.str@PAGE
Lloh5:
add x19, x19, l_.str@PAGEOFF
LBB0_2: ; =>This Inner Loop Header: Depth=1
str x22, [sp]
mov x0, x19
bl _scanf
ldrsw x8, [sp, #24]
lsl x8, x8, #2
ldr w9, [x20, x8]
add w9, w9, #1
str w9, [x20, x8]
add w21, w21, #1
ldr w8, [sp, #28]
cmp w21, w8
b.lt LBB0_2
LBB0_3:
add x8, sp, #20
str x8, [sp]
Lloh6:
adrp x0, l_.str@PAGE
Lloh7:
add x0, x0, l_.str@PAGEOFF
bl _scanf
mov w9, #0
mov w8, #34464
movk w8, #1, lsl #16
ldr w10, [sp, #20]
LBB0_4: ; =>This Inner Loop Header: Depth=1
ldr w11, [x20, w8, uxtw #2]
cmp w11, #0
cinc w9, w9, ne
cmp w9, w10
b.eq LBB0_6
; %bb.5: ; in Loop: Header=BB0_4 Depth=1
sub w8, w8, #1
cmn w8, #1
b.ne LBB0_4
b LBB0_7
LBB0_6:
stp x8, x11, [sp]
Lloh8:
adrp x0, l_.str.1@PAGE
Lloh9:
add x0, x0, l_.str.1@PAGEOFF
bl _printf
LBB0_7:
mov w0, #0
ldp x29, x30, [sp, #64] ; 16-byte Folded Reload
ldp x20, x19, [sp, #48] ; 16-byte Folded Reload
ldp x22, x21, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #80
ret
.loh AdrpLdrGot Lloh2, Lloh3
.loh AdrpAdd Lloh0, Lloh1
.loh AdrpAdd Lloh4, Lloh5
.loh AdrpAdd Lloh6, Lloh7
.loh AdrpAdd Lloh8, Lloh9
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "%d"
.comm _arr,400040,2 ; @arr
l_.str.1: ; @.str.1
.asciz "%d %d"
.subsections_via_symbols
| the_stack_data/62741.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _PacketGetLinkLayerFromRegistry ## -- Begin function PacketGetLinkLayerFromRegistry
.p2align 4, 0x90
_PacketGetLinkLayerFromRegistry: ## @PacketGetLinkLayerFromRegistry
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rsi, %r15
movl %edi, %r14d
movq _GMEM_MOVEABLE@GOTPCREL(%rip), %rax
movq _GMEM_ZEROINIT@GOTPCREL(%rip), %rcx
movl (%rcx), %edi
orl (%rax), %edi
movl $7, %esi
callq _GlobalAllocPtr
testq %rax, %rax
je LBB0_1
## %bb.3:
movq %rax, %rbx
movq _OID_GEN_MEDIA_IN_USE@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, 16(%rbx)
movl $4, (%rbx)
movq _FALSE@GOTPCREL(%rip), %r12
movl (%r12), %esi
movl %r14d, %edi
movq %rbx, %rdx
callq _PacketRequest
movq 8(%rbx), %rax
movl (%rax), %eax
movl %eax, (%r15)
movq _OID_GEN_LINK_SPEED@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, 16(%rbx)
movl $4, (%rbx)
movl (%r12), %esi
movl %r14d, %edi
movq %rbx, %rdx
callq _PacketRequest
movl %eax, %r14d
movq 8(%rbx), %rax
imull $100, (%rax), %eax
movl %eax, 4(%r15)
movq %rbx, %rdi
callq _GlobalFreePtr
movl (%r15), %esi
leaq L_.str.1(%rip), %rdi
callq _ODSEx
movl 4(%r15), %esi
leaq L_.str.2(%rip), %rdi
callq _ODSEx
movl %r14d, %eax
jmp LBB0_2
LBB0_1:
leaq L_.str(%rip), %rdi
callq _ODS
movq _FALSE@GOTPCREL(%rip), %rax
movl (%rax), %eax
LBB0_2:
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _GMEM_MOVEABLE,4,2 ## @GMEM_MOVEABLE
.comm _GMEM_ZEROINIT,4,2 ## @GMEM_ZEROINIT
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "PacketGetLinkLayerFromRegistry failed\n"
.comm _FALSE,4,2 ## @FALSE
.comm _OID_GEN_MEDIA_IN_USE,4,2 ## @OID_GEN_MEDIA_IN_USE
.comm _OID_GEN_LINK_SPEED,4,2 ## @OID_GEN_LINK_SPEED
L_.str.1: ## @.str.1
.asciz "Media:%d\n"
L_.str.2: ## @.str.2
.asciz "Speed=%d\n"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _PacketGetLinkLayerFromRegistry ; -- Begin function PacketGetLinkLayerFromRegistry
.p2align 2
_PacketGetLinkLayerFromRegistry: ; @PacketGetLinkLayerFromRegistry
.cfi_startproc
; %bb.0:
stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x19, x1
mov x20, x0
Lloh0:
adrp x8, _GMEM_MOVEABLE@GOTPAGE
Lloh1:
ldr x8, [x8, _GMEM_MOVEABLE@GOTPAGEOFF]
Lloh2:
ldr w8, [x8]
Lloh3:
adrp x9, _GMEM_ZEROINIT@GOTPAGE
Lloh4:
ldr x9, [x9, _GMEM_ZEROINIT@GOTPAGEOFF]
Lloh5:
ldr w9, [x9]
orr w0, w9, w8
mov w1, #7
bl _GlobalAllocPtr
cbz x0, LBB0_2
; %bb.1:
mov x21, x0
Lloh6:
adrp x8, _OID_GEN_MEDIA_IN_USE@GOTPAGE
Lloh7:
ldr x8, [x8, _OID_GEN_MEDIA_IN_USE@GOTPAGEOFF]
Lloh8:
ldr w8, [x8]
str w8, [x0, #16]
mov w22, #4
str w22, [x0]
Lloh9:
adrp x23, _FALSE@GOTPAGE
Lloh10:
ldr x23, [x23, _FALSE@GOTPAGEOFF]
ldr w1, [x23]
mov x0, x20
mov x2, x21
bl _PacketRequest
ldr x8, [x21, #8]
ldr w8, [x8]
str w8, [x19]
Lloh11:
adrp x8, _OID_GEN_LINK_SPEED@GOTPAGE
Lloh12:
ldr x8, [x8, _OID_GEN_LINK_SPEED@GOTPAGEOFF]
Lloh13:
ldr w8, [x8]
str w8, [x21, #16]
str w22, [x21]
ldr w1, [x23]
mov x0, x20
mov x2, x21
bl _PacketRequest
mov x20, x0
ldr x8, [x21, #8]
ldr w8, [x8]
mov w9, #100
mul w8, w8, w9
str w8, [x19, #4]
mov x0, x21
bl _GlobalFreePtr
ldr w1, [x19]
Lloh14:
adrp x0, l_.str.1@PAGE
Lloh15:
add x0, x0, l_.str.1@PAGEOFF
bl _ODSEx
ldr w1, [x19, #4]
Lloh16:
adrp x0, l_.str.2@PAGE
Lloh17:
add x0, x0, l_.str.2@PAGEOFF
bl _ODSEx
mov x0, x20
b LBB0_3
LBB0_2:
Lloh18:
adrp x0, l_.str@PAGE
Lloh19:
add x0, x0, l_.str@PAGEOFF
bl _ODS
Lloh20:
adrp x8, _FALSE@GOTPAGE
Lloh21:
ldr x8, [x8, _FALSE@GOTPAGEOFF]
Lloh22:
ldr w0, [x8]
LBB0_3:
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
ldp x24, x23, [sp], #64 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpAdd Lloh16, Lloh17
.loh AdrpAdd Lloh14, Lloh15
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGot Lloh9, Lloh10
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh20, Lloh21, Lloh22
.loh AdrpAdd Lloh18, Lloh19
.cfi_endproc
; -- End function
.comm _GMEM_MOVEABLE,4,2 ; @GMEM_MOVEABLE
.comm _GMEM_ZEROINIT,4,2 ; @GMEM_ZEROINIT
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "PacketGetLinkLayerFromRegistry failed\n"
.comm _FALSE,4,2 ; @FALSE
.comm _OID_GEN_MEDIA_IN_USE,4,2 ; @OID_GEN_MEDIA_IN_USE
.comm _OID_GEN_LINK_SPEED,4,2 ; @OID_GEN_LINK_SPEED
l_.str.1: ; @.str.1
.asciz "Media:%d\n"
l_.str.2: ; @.str.2
.asciz "Speed=%d\n"
.subsections_via_symbols
| AnghaBench/SoftEtherVPN/src/SeeDll/extr_AdInfo.c_PacketGetLinkLayerFromRegistry.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function __expr_eliminate_eq
___expr_eliminate_eq: ## @__expr_eliminate_eq
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %edi, %ebx
movq _e1@GOTPCREL(%rip), %r14
movq _e2@GOTPCREL(%rip), %r15
jmp LBB0_1
.p2align 4, 0x90
LBB0_2: ## in Loop: Header=BB0_1 Depth=1
addq $16, %rsi
movq %r15, %rdx
LBB0_3: ## in Loop: Header=BB0_1 Depth=1
movl %ebx, %edi
callq ___expr_eliminate_eq
LBB0_1: ## =>This Inner Loop Header: Depth=1
movq (%r14), %rsi
movslq (%rsi), %rax
cmpl %ebx, %eax
je LBB0_2
## %bb.4: ## in Loop: Header=BB0_1 Depth=1
movq (%r15), %rdx
movslq (%rdx), %rcx
cmpl %ebx, %ecx
jne LBB0_6
## %bb.5: ## in Loop: Header=BB0_1 Depth=1
addq $16, %rdx
movq %r14, %rsi
jmp LBB0_3
LBB0_6:
movq _E_SYMBOL@GOTPCREL(%rip), %rdi
movq (%rdi), %rdi
cmpq %rax, %rdi
jne LBB0_11
## %bb.7:
cmpq %rcx, %rdi
jne LBB0_11
## %bb.8:
movq 8(%rsi), %rax
cmpq 8(%rdx), %rax
jne LBB0_11
## %bb.9:
cmpq _symbol_yes@GOTPCREL(%rip), %rax
je LBB0_17
## %bb.10:
cmpq _symbol_no@GOTPCREL(%rip), %rax
je LBB0_17
LBB0_11:
movq %rsi, %rdi
movq %rdx, %rsi
callq _expr_eq
testl %eax, %eax
je LBB0_17
## %bb.12:
movq _trans_count@GOTPCREL(%rip), %rax
incl (%rax)
movq _e1@GOTPCREL(%rip), %r14
movq (%r14), %rdi
callq _expr_free
movq _e2@GOTPCREL(%rip), %r15
movq (%r15), %rdi
callq _expr_free
cmpl $128, %ebx
je LBB0_13
## %bb.14:
cmpl $129, %ebx
jne LBB0_17
## %bb.15:
movq _symbol_yes@GOTPCREL(%rip), %rbx
jmp LBB0_16
LBB0_13:
movq _symbol_no@GOTPCREL(%rip), %rbx
LBB0_16:
movq %rbx, %rdi
callq _expr_alloc_symbol
movq %rax, (%r14)
movq %rbx, %rdi
callq _expr_alloc_symbol
movq %rax, (%r15)
LBB0_17:
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _e1,8,3 ## @e1
.comm _e2,8,3 ## @e2
.comm _E_SYMBOL,8,3 ## @E_SYMBOL
.comm _symbol_yes,4,2 ## @symbol_yes
.comm _symbol_no,4,2 ## @symbol_no
.comm _trans_count,4,2 ## @trans_count
.no_dead_strip ___expr_eliminate_eq
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function __expr_eliminate_eq
___expr_eliminate_eq: ; @__expr_eliminate_eq
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x0
Lloh0:
adrp x21, _e1@GOTPAGE
Lloh1:
ldr x21, [x21, _e1@GOTPAGEOFF]
Lloh2:
adrp x20, _e2@GOTPAGE
Lloh3:
ldr x20, [x20, _e2@GOTPAGEOFF]
b LBB0_3
LBB0_1: ; in Loop: Header=BB0_3 Depth=1
add x1, x0, #16
mov x2, x20
LBB0_2: ; in Loop: Header=BB0_3 Depth=1
mov x0, x19
bl ___expr_eliminate_eq
LBB0_3: ; =>This Inner Loop Header: Depth=1
ldr x0, [x21]
ldrsw x8, [x0]
cmp w8, w19
b.eq LBB0_1
; %bb.4: ; in Loop: Header=BB0_3 Depth=1
ldr x1, [x20]
ldrsw x9, [x1]
cmp w9, w19
b.ne LBB0_6
; %bb.5: ; in Loop: Header=BB0_3 Depth=1
add x2, x1, #16
mov x1, x21
b LBB0_2
LBB0_6:
Lloh4:
adrp x10, _E_SYMBOL@GOTPAGE
Lloh5:
ldr x10, [x10, _E_SYMBOL@GOTPAGEOFF]
Lloh6:
ldr x10, [x10]
cmp x10, x8
ccmp x10, x9, #0, eq
b.ne LBB0_9
; %bb.7:
ldr x8, [x0, #8]
ldr x9, [x1, #8]
cmp x8, x9
b.ne LBB0_9
; %bb.8:
Lloh7:
adrp x9, _symbol_yes@GOTPAGE
Lloh8:
ldr x9, [x9, _symbol_yes@GOTPAGEOFF]
cmp x8, x9
Lloh9:
adrp x9, _symbol_no@GOTPAGE
Lloh10:
ldr x9, [x9, _symbol_no@GOTPAGEOFF]
ccmp x8, x9, #4, ne
b.eq LBB0_15
LBB0_9:
bl _expr_eq
cbz w0, LBB0_15
; %bb.10:
Lloh11:
adrp x8, _trans_count@GOTPAGE
Lloh12:
ldr x8, [x8, _trans_count@GOTPAGEOFF]
ldr w9, [x8]
add w9, w9, #1
str w9, [x8]
ldr x0, [x21]
bl _expr_free
ldr x0, [x20]
bl _expr_free
cmp w19, #128
b.eq LBB0_13
; %bb.11:
cmp w19, #129
b.ne LBB0_15
; %bb.12:
Lloh13:
adrp x19, _symbol_yes@GOTPAGE
Lloh14:
ldr x19, [x19, _symbol_yes@GOTPAGEOFF]
b LBB0_14
LBB0_13:
Lloh15:
adrp x19, _symbol_no@GOTPAGE
Lloh16:
ldr x19, [x19, _symbol_no@GOTPAGEOFF]
LBB0_14:
mov x0, x19
bl _expr_alloc_symbol
str x0, [x21]
mov x0, x19
bl _expr_alloc_symbol
str x0, [x20]
LBB0_15:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpLdrGot Lloh2, Lloh3
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6
.loh AdrpLdrGot Lloh9, Lloh10
.loh AdrpLdrGot Lloh7, Lloh8
.loh AdrpLdrGot Lloh11, Lloh12
.loh AdrpLdrGot Lloh13, Lloh14
.loh AdrpLdrGot Lloh15, Lloh16
.cfi_endproc
; -- End function
.comm _e1,8,3 ; @e1
.comm _e2,8,3 ; @e2
.comm _E_SYMBOL,8,3 ; @E_SYMBOL
.comm _symbol_yes,4,2 ; @symbol_yes
.comm _symbol_no,4,2 ; @symbol_no
.comm _trans_count,4,2 ; @trans_count
.no_dead_strip ___expr_eliminate_eq
.subsections_via_symbols
| AnghaBench/linux/scripts/kconfig/extr_expr.c___expr_eliminate_eq.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _motion_test1 ## -- Begin function motion_test1
.p2align 4, 0x90
_motion_test1: ## @motion_test1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
## kill: def $edx killed $edx def $rdx
## kill: def $esi killed $esi def $rsi
addl %esi, %edx
testl %edi, %edi
movl $5, %esi
cmovnel %edx, %esi
movl $2, %eax
cmovnel %ecx, %eax
imull %edx, %eax
imull %esi, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _motion_test1 ; -- Begin function motion_test1
.p2align 2
_motion_test1: ; @motion_test1
.cfi_startproc
; %bb.0:
add w8, w2, w1
mov w9, #5
cmp w0, #0
csel w9, w9, w8, eq
mov w10, #2
csel w10, w10, w3, eq
mul w8, w10, w8
mul w0, w8, w9
ret
.cfi_endproc
; -- End function
.subsections_via_symbols
| the_stack_data/15762001.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function set_local_port_range
_set_local_port_range: ## @set_local_port_range
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rdi, %rbx
movq _local_port_range_lock@GOTPCREL(%rip), %r14
movq %r14, %rdi
callq _write_seqlock
movl (%rbx), %eax
movq _local_port_range@GOTPCREL(%rip), %rcx
movq (%rcx), %rcx
movl %eax, (%rcx)
movl 4(%rbx), %eax
movl %eax, 4(%rcx)
movq %r14, %rdi
popq %rbx
popq %r14
popq %rbp
jmp _write_sequnlock ## TAILCALL
.cfi_endproc
## -- End function
.comm _local_port_range_lock,4,2 ## @local_port_range_lock
.comm _local_port_range,8,3 ## @local_port_range
.no_dead_strip _set_local_port_range
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function set_local_port_range
_set_local_port_range: ; @set_local_port_range
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x0
Lloh0:
adrp x20, _local_port_range_lock@GOTPAGE
Lloh1:
ldr x20, [x20, _local_port_range_lock@GOTPAGEOFF]
mov x0, x20
bl _write_seqlock
Lloh2:
adrp x8, _local_port_range@GOTPAGE
Lloh3:
ldr x8, [x8, _local_port_range@GOTPAGEOFF]
ldr w9, [x19]
Lloh4:
ldr x8, [x8]
str w9, [x8]
ldr w9, [x19, #4]
str w9, [x8, #4]
mov x0, x20
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _write_sequnlock
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpLdrGot Lloh0, Lloh1
.cfi_endproc
; -- End function
.comm _local_port_range_lock,4,2 ; @local_port_range_lock
.comm _local_port_range,8,3 ; @local_port_range
.no_dead_strip _set_local_port_range
.subsections_via_symbols
| AnghaBench/linux/net/phonet/extr_sysctl.c_set_local_port_range.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function cp1251_mbtowc
_cp1251_mbtowc: ## @cp1251_mbtowc
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdx), %eax
testb %al, %al
js LBB0_2
## %bb.1:
movq %rax, (%rsi)
movl $1, %eax
popq %rbp
retq
LBB0_2:
movq _cp1251_2uni@GOTPCREL(%rip), %rcx
movq (%rcx), %rcx
addl $-128, %eax
movzwl (%rcx,%rax,2), %ecx
cmpq $65533, %rcx ## imm = 0xFFFD
je LBB0_4
## %bb.3:
movq %rcx, (%rsi)
LBB0_4:
movl $1, %eax
cmpw $-3, %cx
jne LBB0_6
## %bb.5:
movq _RET_ILSEQ@GOTPCREL(%rip), %rax
movl (%rax), %eax
LBB0_6:
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _cp1251_2uni,8,3 ## @cp1251_2uni
.comm _RET_ILSEQ,4,2 ## @RET_ILSEQ
.no_dead_strip _cp1251_mbtowc
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function cp1251_mbtowc
_cp1251_mbtowc: ; @cp1251_mbtowc
.cfi_startproc
; %bb.0:
ldrsb w9, [x2]
and x8, x9, #0xff
tbnz w9, #31, LBB0_2
; %bb.1:
str x8, [x1]
mov w0, #1
ret
LBB0_2:
Lloh0:
adrp x9, _cp1251_2uni@GOTPAGE
Lloh1:
ldr x9, [x9, _cp1251_2uni@GOTPAGEOFF]
Lloh2:
ldr x9, [x9]
sub w8, w8, #128
ldrh w8, [x9, w8, uxtw #1]
mov w9, #65533
cmp x8, x9
b.eq LBB0_4
; %bb.3:
str x8, [x1]
LBB0_4:
Lloh3:
adrp x10, _RET_ILSEQ@GOTPAGE
Lloh4:
ldr x10, [x10, _RET_ILSEQ@GOTPAGEOFF]
Lloh5:
ldr w10, [x10]
cmp w8, w9
csinc w0, w10, wzr, eq
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.cfi_endproc
; -- End function
.comm _cp1251_2uni,8,3 ; @cp1251_2uni
.comm _RET_ILSEQ,4,2 ; @RET_ILSEQ
.no_dead_strip _cp1251_mbtowc
.subsections_via_symbols
| AnghaBench/TDengine/deps/iconv/extr_cp1251.h_cp1251_mbtowc.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _kuhl_m_lsadump_lsa_getHandle ## -- Begin function kuhl_m_lsadump_lsa_getHandle
.p2align 4, 0x90
_kuhl_m_lsadump_lsa_getHandle: ## @kuhl_m_lsadump_lsa_getHandle
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %esi, %r15d
movq %rdi, %r14
movq _FALSE@GOTPCREL(%rip), %r12
movl (%r12), %ebx
leaq l_.str(%rip), %rdi
leaq -40(%rbp), %rsi
callq _kull_m_service_getUniqueForName
testq %rax, %rax
je LBB0_5
## %bb.1:
movl (%r12), %esi
movl -40(%rbp), %edx
movl %r15d, %edi
callq _OpenProcess
testl %eax, %eax
je LBB0_4
## %bb.2:
movl %eax, %r15d
movq _KULL_M_MEMORY_TYPE_PROCESS@GOTPCREL(%rip), %rax
movl (%rax), %edi
movl %r15d, %esi
movq %r14, %rdx
callq _kull_m_memory_open
movl %eax, %ebx
testl %eax, %eax
jne LBB0_7
## %bb.3:
movl %r15d, %edi
callq _CloseHandle
xorl %ebx, %ebx
jmp LBB0_7
LBB0_5:
leaq l_.str.2(%rip), %rdi
jmp LBB0_6
LBB0_4:
leaq l_.str.1(%rip), %rdi
LBB0_6:
callq _PRINT_ERROR_AUTO
LBB0_7:
movl %ebx, %eax
addq $16, %rsp
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _FALSE,4,2 ## @FALSE
.section __TEXT,__const
.p2align 2 ## @.str
l_.str:
.long 83 ## 0x53
.long 97 ## 0x61
.long 109 ## 0x6d
.long 83 ## 0x53
.long 115 ## 0x73
.long 0 ## 0x0
.comm _KULL_M_MEMORY_TYPE_PROCESS,4,2 ## @KULL_M_MEMORY_TYPE_PROCESS
.p2align 2 ## @.str.1
l_.str.1:
.long 79 ## 0x4f
.long 112 ## 0x70
.long 101 ## 0x65
.long 110 ## 0x6e
.long 80 ## 0x50
.long 114 ## 0x72
.long 111 ## 0x6f
.long 99 ## 0x63
.long 101 ## 0x65
.long 115 ## 0x73
.long 115 ## 0x73
.long 0 ## 0x0
.p2align 2 ## @.str.2
l_.str.2:
.long 107 ## 0x6b
.long 117 ## 0x75
.long 108 ## 0x6c
.long 108 ## 0x6c
.long 95 ## 0x5f
.long 109 ## 0x6d
.long 95 ## 0x5f
.long 115 ## 0x73
.long 101 ## 0x65
.long 114 ## 0x72
.long 118 ## 0x76
.long 105 ## 0x69
.long 99 ## 0x63
.long 101 ## 0x65
.long 95 ## 0x5f
.long 103 ## 0x67
.long 101 ## 0x65
.long 116 ## 0x74
.long 85 ## 0x55
.long 110 ## 0x6e
.long 105 ## 0x69
.long 113 ## 0x71
.long 117 ## 0x75
.long 101 ## 0x65
.long 70 ## 0x46
.long 111 ## 0x6f
.long 114 ## 0x72
.long 78 ## 0x4e
.long 97 ## 0x61
.long 109 ## 0x6d
.long 101 ## 0x65
.long 0 ## 0x0
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _kuhl_m_lsadump_lsa_getHandle ; -- Begin function kuhl_m_lsadump_lsa_getHandle
.p2align 2
_kuhl_m_lsadump_lsa_getHandle: ; @kuhl_m_lsadump_lsa_getHandle
.cfi_startproc
; %bb.0:
sub sp, sp, #64
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x21, x1
mov x20, x0
Lloh0:
adrp x22, _FALSE@GOTPAGE
Lloh1:
ldr x22, [x22, _FALSE@GOTPAGEOFF]
ldr w19, [x22]
Lloh2:
adrp x0, l_.str@PAGE
Lloh3:
add x0, x0, l_.str@PAGEOFF
add x1, sp, #8
bl _kull_m_service_getUniqueForName
cbz x0, LBB0_4
; %bb.1:
ldr w1, [x22]
ldr w2, [sp, #8]
mov x0, x21
bl _OpenProcess
cbz w0, LBB0_5
; %bb.2:
mov x21, x0
Lloh4:
adrp x8, _KULL_M_MEMORY_TYPE_PROCESS@GOTPAGE
Lloh5:
ldr x8, [x8, _KULL_M_MEMORY_TYPE_PROCESS@GOTPAGEOFF]
Lloh6:
ldr w0, [x8]
mov x1, x21
mov x2, x20
bl _kull_m_memory_open
mov x19, x0
cbnz w0, LBB0_7
; %bb.3:
mov x0, x21
bl _CloseHandle
b LBB0_7
LBB0_4:
Lloh7:
adrp x0, l_.str.2@PAGE
Lloh8:
add x0, x0, l_.str.2@PAGEOFF
b LBB0_6
LBB0_5:
Lloh9:
adrp x0, l_.str.1@PAGE
Lloh10:
add x0, x0, l_.str.1@PAGEOFF
LBB0_6:
bl _PRINT_ERROR_AUTO
LBB0_7:
mov x0, x19
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #64
ret
.loh AdrpAdd Lloh2, Lloh3
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6
.loh AdrpAdd Lloh7, Lloh8
.loh AdrpAdd Lloh9, Lloh10
.cfi_endproc
; -- End function
.comm _FALSE,4,2 ; @FALSE
.section __TEXT,__const
.p2align 2 ; @.str
l_.str:
.long 83 ; 0x53
.long 97 ; 0x61
.long 109 ; 0x6d
.long 83 ; 0x53
.long 115 ; 0x73
.long 0 ; 0x0
.comm _KULL_M_MEMORY_TYPE_PROCESS,4,2 ; @KULL_M_MEMORY_TYPE_PROCESS
.p2align 2 ; @.str.1
l_.str.1:
.long 79 ; 0x4f
.long 112 ; 0x70
.long 101 ; 0x65
.long 110 ; 0x6e
.long 80 ; 0x50
.long 114 ; 0x72
.long 111 ; 0x6f
.long 99 ; 0x63
.long 101 ; 0x65
.long 115 ; 0x73
.long 115 ; 0x73
.long 0 ; 0x0
.p2align 2 ; @.str.2
l_.str.2:
.long 107 ; 0x6b
.long 117 ; 0x75
.long 108 ; 0x6c
.long 108 ; 0x6c
.long 95 ; 0x5f
.long 109 ; 0x6d
.long 95 ; 0x5f
.long 115 ; 0x73
.long 101 ; 0x65
.long 114 ; 0x72
.long 118 ; 0x76
.long 105 ; 0x69
.long 99 ; 0x63
.long 101 ; 0x65
.long 95 ; 0x5f
.long 103 ; 0x67
.long 101 ; 0x65
.long 116 ; 0x74
.long 85 ; 0x55
.long 110 ; 0x6e
.long 105 ; 0x69
.long 113 ; 0x71
.long 117 ; 0x75
.long 101 ; 0x65
.long 70 ; 0x46
.long 111 ; 0x6f
.long 114 ; 0x72
.long 78 ; 0x4e
.long 97 ; 0x61
.long 109 ; 0x6d
.long 101 ; 0x65
.long 0 ; 0x0
.subsections_via_symbols
| AnghaBench/mimikatz/mimikatz/modules/extr_kuhl_m_lsadump.c_kuhl_m_lsadump_lsa_getHandle.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function posixOpen
_posixOpen: ## @posixOpen
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
popq %rbp
jmp _open ## TAILCALL
.cfi_endproc
## -- End function
.no_dead_strip _posixOpen
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function posixOpen
_posixOpen: ; @posixOpen
.cfi_startproc
; %bb.0:
b _open
.cfi_endproc
; -- End function
.no_dead_strip _posixOpen
.subsections_via_symbols
| AnghaBench/mimikatz/modules/extr_sqlite3_omit.c_posixOpen.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function atc_get_xfer_width
_atc_get_xfer_width: ## @atc_get_xfer_width
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
orq %rsi, %rdi
orq %rdx, %rdi
movl %edi, %ecx
notl %ecx
andl $1, %ecx
testb $3, %dil
movl $2, %eax
cmovnel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.no_dead_strip _atc_get_xfer_width
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function atc_get_xfer_width
_atc_get_xfer_width: ; @atc_get_xfer_width
.cfi_startproc
; %bb.0:
orr x8, x1, x0
orr x8, x8, x2
mvn w9, w8
and w9, w9, #0x1
tst x8, #0x3
mov w8, #2
csel w0, w8, w9, eq
ret
.cfi_endproc
; -- End function
.no_dead_strip _atc_get_xfer_width
.subsections_via_symbols
| AnghaBench/linux/drivers/dma/extr_at_hdmac.c_atc_get_xfer_width.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function renameParseSql
_renameParseSql: ## @renameParseSql
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %r8, %r15
movq %rcx, %r14
movl %edx, %r12d
movq %rdi, %rbx
movq $0, -40(%rbp)
movl $1, %eax
testl %r9d, %r9d
jne LBB0_2
## %bb.1:
movq %r14, %rdi
callq _sqlite3FindDbName
LBB0_2:
movl %eax, (%r14)
movq %rbx, %rdi
xorl %esi, %esi
movl $64, %edx
callq _memset
testl %r12d, %r12d
jne LBB0_3
## %bb.4:
movq _PARSE_MODE_RENAME_COLUMN@GOTPCREL(%rip), %rax
jmp LBB0_5
LBB0_3:
movq _PARSE_MODE_RENAME_TABLE@GOTPCREL(%rip), %rax
LBB0_5:
movl (%rax), %eax
movl %eax, 56(%rbx)
movq %r14, 48(%rbx)
movl $1, (%rbx)
leaq -40(%rbp), %rdx
movq %rbx, %rdi
movq %r15, %rsi
callq _sqlite3RunParser
movl %eax, %r15d
xorl %edi, %edi
cmpq $0, 8(%rbx)
sete %dil
callq _assert
movq _SQLITE_OK@GOTPCREL(%rip), %r12
cmpl (%r12), %r15d
setne %al
cmpq $0, -40(%rbp)
sete %cl
orb %al, %cl
movzbl %cl, %edi
callq _assert
movq -40(%rbp), %rax
movq %rax, 8(%rbx)
cmpq $0, 8(%r14)
je LBB0_7
## %bb.6:
movq _SQLITE_NOMEM@GOTPCREL(%rip), %rax
movl (%rax), %r15d
LBB0_7:
cmpl (%r12), %r15d
jne LBB0_12
## %bb.8:
cmpq $0, 16(%rbx)
jne LBB0_12
## %bb.9:
cmpq $0, 24(%rbx)
jne LBB0_12
## %bb.10:
cmpq $0, 32(%rbx)
jne LBB0_12
## %bb.11:
movq _SQLITE_CORRUPT_BKPT@GOTPCREL(%rip), %rax
movl (%rax), %r15d
LBB0_12:
movl $0, (%r14)
movl %r15d, %eax
addq $16, %rsp
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _PARSE_MODE_RENAME_TABLE,4,2 ## @PARSE_MODE_RENAME_TABLE
.comm _PARSE_MODE_RENAME_COLUMN,4,2 ## @PARSE_MODE_RENAME_COLUMN
.comm _SQLITE_OK,4,2 ## @SQLITE_OK
.comm _SQLITE_NOMEM,4,2 ## @SQLITE_NOMEM
.comm _SQLITE_CORRUPT_BKPT,4,2 ## @SQLITE_CORRUPT_BKPT
.no_dead_strip _renameParseSql
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function renameParseSql
_renameParseSql: ; @renameParseSql
.cfi_startproc
; %bb.0:
sub sp, sp, #80
.cfi_def_cfa_offset 80
stp x24, x23, [sp, #16] ; 16-byte Folded Spill
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x21, x4
mov x19, x3
mov x22, x2
mov x20, x0
str xzr, [sp, #8]
mov w23, #1
mov w0, #1
cbnz w5, LBB0_2
; %bb.1:
mov x0, x19
bl _sqlite3FindDbName
LBB0_2:
str w0, [x19]
mov x0, x20
mov w1, #0
mov w2, #64
bl _memset
Lloh0:
adrp x8, _PARSE_MODE_RENAME_TABLE@GOTPAGE
Lloh1:
ldr x8, [x8, _PARSE_MODE_RENAME_TABLE@GOTPAGEOFF]
Lloh2:
adrp x9, _PARSE_MODE_RENAME_COLUMN@GOTPAGE
Lloh3:
ldr x9, [x9, _PARSE_MODE_RENAME_COLUMN@GOTPAGEOFF]
cmp w22, #0
csel x8, x9, x8, eq
ldr w8, [x8]
str w8, [x20, #56]
str x19, [x20, #48]
str w23, [x20]
add x2, sp, #8
mov x0, x20
mov x1, x21
bl _sqlite3RunParser
mov x21, x0
ldr x8, [x20, #8]
cmp x8, #0
cset w0, eq
bl _assert
Lloh4:
adrp x22, _SQLITE_OK@GOTPAGE
Lloh5:
ldr x22, [x22, _SQLITE_OK@GOTPAGEOFF]
ldr w8, [x22]
cmp w21, w8
ldr x8, [sp, #8]
ccmp x8, #0, #4, eq
cset w0, eq
bl _assert
ldr x8, [sp, #8]
str x8, [x20, #8]
Lloh6:
adrp x8, _SQLITE_NOMEM@GOTPAGE
Lloh7:
ldr x8, [x8, _SQLITE_NOMEM@GOTPAGEOFF]
ldr x9, [x19, #8]
Lloh8:
ldr w8, [x8]
cmp x9, #0
csel w0, w21, w8, eq
ldr w8, [x22]
cmp w0, w8
b.ne LBB0_6
; %bb.3:
ldr x8, [x20, #16]
cbnz x8, LBB0_6
; %bb.4:
ldr x8, [x20, #24]
cbnz x8, LBB0_6
; %bb.5:
ldr x8, [x20, #32]
Lloh9:
adrp x9, _SQLITE_CORRUPT_BKPT@GOTPAGE
Lloh10:
ldr x9, [x9, _SQLITE_CORRUPT_BKPT@GOTPAGEOFF]
Lloh11:
ldr w9, [x9]
cmp x8, #0
csel w0, w9, w0, eq
LBB0_6:
str wzr, [x19]
ldp x29, x30, [sp, #64] ; 16-byte Folded Reload
ldp x20, x19, [sp, #48] ; 16-byte Folded Reload
ldp x22, x21, [sp, #32] ; 16-byte Folded Reload
ldp x24, x23, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #80
ret
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGot Lloh4, Lloh5
.loh AdrpLdrGot Lloh2, Lloh3
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.cfi_endproc
; -- End function
.comm _PARSE_MODE_RENAME_TABLE,4,2 ; @PARSE_MODE_RENAME_TABLE
.comm _PARSE_MODE_RENAME_COLUMN,4,2 ; @PARSE_MODE_RENAME_COLUMN
.comm _SQLITE_OK,4,2 ; @SQLITE_OK
.comm _SQLITE_NOMEM,4,2 ; @SQLITE_NOMEM
.comm _SQLITE_CORRUPT_BKPT,4,2 ; @SQLITE_CORRUPT_BKPT
.no_dead_strip _renameParseSql
.subsections_via_symbols
| AnghaBench/wcdb/android/sqlcipher/extr_sqlite3.c_renameParseSql.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__literal16,16byte_literals
.p2align 4 ## -- Begin function main
LCPI0_0:
.long 4294967248 ## 0xffffffd0
.long 4294967248 ## 0xffffffd0
.long 4294967248 ## 0xffffffd0
.long 4294967248 ## 0xffffffd0
.section __TEXT,__text,regular,pure_instructions
.globl _main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
subq $456, %rsp ## imm = 0x1C8
.cfi_offset %rbx, -24
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -16(%rbp)
leaq L_.str(%rip), %rbx
leaq -48(%rbp), %rsi
movq %rbx, %rdi
xorl %eax, %eax
callq _scanf
movq -27(%rbp), %rax
movq %rax, -28(%rbp)
movzwl -19(%rbp), %eax
movw %ax, -20(%rbp)
pmovsxbd -48(%rbp), %xmm0
movdqa LCPI0_0(%rip), %xmm1 ## xmm1 = [4294967248,4294967248,4294967248,4294967248]
paddd %xmm1, %xmm0
movdqa %xmm0, -208(%rbp)
pmovsxbd -44(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -192(%rbp)
pmovsxbd -40(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -176(%rbp)
pmovsxbd -36(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -160(%rbp)
pmovsxbd -32(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -144(%rbp)
pmovsxbd -28(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -128(%rbp)
pmovsxbd -24(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -112(%rbp)
movsbl -20(%rbp), %eax
addl $-48, %eax
movl %eax, -96(%rbp)
movsbl -19(%rbp), %eax
addl $-48, %eax
movl %eax, -92(%rbp)
leaq L_str(%rip), %rdi
callq _puts
leaq -80(%rbp), %rsi
movq %rbx, %rdi
xorl %eax, %eax
callq _scanf
movq -59(%rbp), %rax
movq %rax, -60(%rbp)
movzwl -51(%rbp), %eax
movw %ax, -52(%rbp)
pmovsxbd -80(%rbp), %xmm0
movdqa LCPI0_0(%rip), %xmm1 ## xmm1 = [4294967248,4294967248,4294967248,4294967248]
paddd %xmm1, %xmm0
movdqa %xmm0, -336(%rbp)
pmovsxbd -76(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -320(%rbp)
pmovsxbd -72(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -304(%rbp)
pmovsxbd -68(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -288(%rbp)
pmovsxbd -64(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -272(%rbp)
pmovsxbd -60(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -256(%rbp)
pmovsxbd -56(%rbp), %xmm0
paddd %xmm1, %xmm0
movdqa %xmm0, -240(%rbp)
movsbl -52(%rbp), %eax
addl $-48, %eax
movl %eax, -224(%rbp)
movsbl -51(%rbp), %eax
addl $-48, %eax
movl %eax, -220(%rbp)
leaq L_str.6(%rip), %rdi
callq _puts
movdqa -336(%rbp), %xmm0
movdqa -320(%rbp), %xmm1
movdqa -304(%rbp), %xmm2
paddd -208(%rbp), %xmm0
movdqa -288(%rbp), %xmm3
movdqa %xmm0, -464(%rbp)
paddd -192(%rbp), %xmm1
movdqa %xmm1, -448(%rbp)
paddd -176(%rbp), %xmm2
movdqa %xmm2, -432(%rbp)
paddd -160(%rbp), %xmm3
movdqa %xmm3, -416(%rbp)
movdqa -272(%rbp), %xmm0
paddd -144(%rbp), %xmm0
movdqa %xmm0, -400(%rbp)
movdqa -256(%rbp), %xmm0
paddd -128(%rbp), %xmm0
movdqa %xmm0, -384(%rbp)
movdqa -240(%rbp), %xmm0
paddd -112(%rbp), %xmm0
movdqa %xmm0, -368(%rbp)
movl -224(%rbp), %eax
addl -96(%rbp), %eax
movl %eax, -352(%rbp)
movl -220(%rbp), %eax
addl -92(%rbp), %eax
movl %eax, -348(%rbp)
movl $29, %eax
jmp LBB0_1
.p2align 4, 0x90
LBB0_3: ## in Loop: Header=BB0_1 Depth=1
addl $-10, %ecx
movl %ecx, -464(%rbp,%rax,4)
leaq -1(%rax), %rcx
incl -468(%rbp,%rax,4)
LBB0_4: ## in Loop: Header=BB0_1 Depth=1
testq %rax, %rax
movq %rcx, %rax
je LBB0_5
LBB0_1: ## =>This Inner Loop Header: Depth=1
movl -464(%rbp,%rax,4), %ecx
cmpl $9, %ecx
jg LBB0_3
## %bb.2: ## in Loop: Header=BB0_1 Depth=1
leaq -1(%rax), %rcx
jmp LBB0_4
LBB0_5:
movl -464(%rbp), %esi
leaq L_.str.3(%rip), %rbx
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -460(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -456(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -452(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -448(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -444(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -440(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -436(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -432(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -428(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -424(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -420(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -416(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -412(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -408(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -404(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -400(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -396(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -392(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -388(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl $46, %edi
callq _putchar
movl -384(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -380(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -376(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -372(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -368(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -364(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -360(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -356(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -352(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl -348(%rbp), %esi
movq %rbx, %rdi
xorl %eax, %eax
callq _printf
movl $10, %edi
callq _putchar
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -16(%rbp), %rax
jne LBB0_7
## %bb.6:
xorl %eax, %eax
addq $456, %rsp ## imm = 0x1C8
popq %rbx
popq %rbp
retq
LBB0_7:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "%s"
L_.str.3: ## @.str.3
.asciz "%d"
L_str: ## @str
.asciz "+"
L_str.6: ## @str.6
.asciz "="
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
stp x28, x27, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w27, -40
.cfi_offset w28, -48
sub sp, sp, #480
sub x20, x29, #104
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
stur x8, [x29, #-40]
sub x8, x29, #72
str x8, [sp]
Lloh3:
adrp x19, l_.str@PAGE
Lloh4:
add x19, x19, l_.str@PAGEOFF
mov x0, x19
bl _scanf
ldur x8, [x20, #53]
stur x8, [x20, #52]
ldurh w8, [x20, #61]
sturh w8, [x29, #-44]
ldur s0, [x29, #-72]
sshll.8h v0, v0, #0
mvni.4s v1, #47
saddw.4s v2, v1, v0
ldur s0, [x29, #-68]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
stp q2, q0, [x29, #-240]
ldur s0, [x29, #-64]
sshll.8h v0, v0, #0
saddw.4s v2, v1, v0
ldur s0, [x29, #-60]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
stp q2, q0, [x29, #-208]
ldur s0, [x29, #-56]
sshll.8h v0, v0, #0
saddw.4s v2, v1, v0
ldur s0, [x29, #-52]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
stp q2, q0, [x29, #-176]
ldur s0, [x29, #-48]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
stur q0, [x29, #-144]
ldursb w8, [x29, #-44]
sub w8, w8, #48
ldursb w9, [x29, #-43]
sub w9, w9, #48
stp w8, w9, [x29, #-128]
Lloh5:
adrp x0, l_str@PAGE
Lloh6:
add x0, x0, l_str@PAGEOFF
bl _puts
str x20, [sp]
mov x0, x19
bl _scanf
ldur x8, [x20, #21]
stur x8, [x20, #20]
ldurh w8, [x20, #29]
sturh w8, [x29, #-76]
ldur s0, [x29, #-104]
sshll.8h v0, v0, #0
mvni.4s v1, #47
saddw.4s v0, v1, v0
str q0, [sp, #144]
ldur s0, [x29, #-100]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
str q0, [sp, #160]
ldur s0, [x29, #-96]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
str q0, [sp, #176]
ldur s0, [x29, #-92]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
str q0, [sp, #192]
ldur s0, [x29, #-88]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
str q0, [sp, #208]
ldur s0, [x29, #-84]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
mvni.4s v1, #47
str q0, [sp, #224]
ldur s0, [x29, #-80]
sshll.8h v0, v0, #0
saddw.4s v0, v1, v0
str q0, [sp, #240]
ldursb w8, [x29, #-76]
sub w8, w8, #48
ldursb w9, [x29, #-75]
sub w9, w9, #48
str w8, [sp, #256]
str w9, [sp, #260]
Lloh7:
adrp x0, l_str.6@PAGE
Lloh8:
add x0, x0, l_str.6@PAGEOFF
bl _puts
ldp q0, q1, [x29, #-240]
ldp q2, q3, [sp, #144]
add.4s v0, v2, v0
add.4s v1, v3, v1
stp q0, q1, [sp, #16]
ldp q0, q1, [x29, #-208]
ldp q2, q3, [sp, #176]
add.4s v0, v2, v0
add.4s v1, v3, v1
stp q0, q1, [sp, #48]
ldp q0, q1, [x29, #-176]
ldp q2, q3, [sp, #208]
add.4s v0, v2, v0
add.4s v1, v3, v1
ldp w8, w9, [x29, #-128]
ldr w10, [sp, #256]
ldr w11, [sp, #260]
add w8, w10, w8
add w9, w11, w9
stp q0, q1, [sp, #80]
ldur q0, [x29, #-144]
ldr q1, [sp, #240]
add.4s v0, v1, v0
stp w8, w9, [sp, #128]
mov w10, #29
add x8, sp, #16
str q0, [sp, #112]
b LBB0_2
LBB0_1: ; in Loop: Header=BB0_2 Depth=1
sub w10, w10, #10
str w10, [x8, x9, lsl #2]
sub x10, x9, #1
lsl x11, x10, #2
ldr w12, [x8, x11]
add w12, w12, #1
str w12, [x8, x11]
cbz x9, LBB0_4
LBB0_2: ; =>This Inner Loop Header: Depth=1
mov x9, x10
ldr w10, [x8, x10, lsl #2]
cmp w10, #9
b.gt LBB0_1
; %bb.3: ; in Loop: Header=BB0_2 Depth=1
sub x10, x9, #1
cbnz x9, LBB0_2
LBB0_4:
ldr w8, [sp, #16]
str x8, [sp]
Lloh9:
adrp x19, l_.str.3@PAGE
Lloh10:
add x19, x19, l_.str.3@PAGEOFF
mov x0, x19
bl _printf
ldr w8, [sp, #20]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #24]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #28]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #32]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #36]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #40]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #44]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #48]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #52]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #56]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #60]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #64]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #68]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #72]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #76]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #80]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #84]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #88]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #92]
str x8, [sp]
mov x0, x19
bl _printf
mov w0, #46
bl _putchar
ldr w8, [sp, #96]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #100]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #104]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #108]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #112]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #116]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #120]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #124]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #128]
str x8, [sp]
mov x0, x19
bl _printf
ldr w8, [sp, #132]
str x8, [sp]
mov x0, x19
bl _printf
mov w0, #10
bl _putchar
ldur x8, [x29, #-40]
Lloh11:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh12:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh13:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_6
; %bb.5:
mov w0, #0
add sp, sp, #480
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x28, x27, [sp], #48 ; 16-byte Folded Reload
ret
LBB0_6:
bl ___stack_chk_fail
.loh AdrpAdd Lloh7, Lloh8
.loh AdrpAdd Lloh5, Lloh6
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpAdd Lloh9, Lloh10
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "%s"
l_.str.3: ; @.str.3
.asciz "%d"
l_str: ; @str
.asciz "+"
l_str.6: ; @str.6
.asciz "="
.subsections_via_symbols
| the_stack_data/187643011.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _hammingWeight ## -- Begin function hammingWeight
.p2align 4, 0x90
_hammingWeight: ## @hammingWeight
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testl %edi, %edi
je LBB0_3
## %bb.1:
movl %edi, %ecx
.p2align 4, 0x90
LBB0_2: ## =>This Inner Loop Header: Depth=1
movl %edi, %edx
andl $1, %edx
addl %edx, %eax
shrl %ecx
cmpl $1, %edi
movl %ecx, %edi
ja LBB0_2
LBB0_3:
popq %rbp
retq
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _hammingWeight ; -- Begin function hammingWeight
.p2align 2
_hammingWeight: ; @hammingWeight
.cfi_startproc
; %bb.0:
cbz w0, LBB0_3
; %bb.1:
mov x8, x0
mov w0, #0
LBB0_2: ; =>This Inner Loop Header: Depth=1
and w9, w8, #0x1
add w0, w0, w9
lsr w9, w8, #1
cmp w8, #1
mov x8, x9
b.hi LBB0_2
LBB0_3:
ret
.cfi_endproc
; -- End function
.subsections_via_symbols
| the_stack_data/58249.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function wait_loop
_wait_loop: ## @wait_loop
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdx, %rbx
movl %esi, %r14d
movq _jiffies@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl (%rdx), %esi
addl $5, %esi
movq _HZ@GOTPCREL(%rip), %r15
imull (%r15), %esi
addq %rdi, %rsi
movl %eax, %edi
callq _time_after
testq %rax, %rax
je LBB0_5
## %bb.1:
movl (%rbx), %eax
testl %eax, %eax
jne LBB0_3
## %bb.2:
leaq L_.str(%rip), %rdi
callq _pr_warn
movl (%rbx), %eax
LBB0_3:
addl $5, %eax
movl %eax, (%rbx)
movl %r14d, %esi
subl %eax, %esi
leaq L_.str.1(%rip), %rdi
xorl %eax, %eax
callq _pr_cont
cmpl %r14d, (%rbx)
jne LBB0_5
## %bb.4:
leaq L_.str.2(%rip), %rdi
xorl %eax, %eax
callq _pr_cont
movl $1, %eax
jmp LBB0_6
LBB0_5:
movl (%r15), %eax
movl $3435973837, %edi ## imm = 0xCCCCCCCD
imulq %rax, %rdi
shrq $35, %rdi
## kill: def $edi killed $edi killed $rdi
callq _schedule_timeout_interruptible
xorl %eax, %eax
LBB0_6:
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _jiffies,4,2 ## @jiffies
.comm _HZ,4,2 ## @HZ
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Waiting for devices to initialise: "
L_.str.1: ## @.str.1
.asciz "%us..."
L_.str.2: ## @.str.2
.asciz "\n"
.no_dead_strip _wait_loop
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function wait_loop
_wait_loop: ; @wait_loop
.cfi_startproc
; %bb.0:
sub sp, sp, #64
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x20, x2
mov x19, x1
Lloh0:
adrp x8, _jiffies@GOTPAGE
Lloh1:
ldr x8, [x8, _jiffies@GOTPAGEOFF]
Lloh2:
ldr w8, [x8]
ldr w9, [x2]
add w9, w9, #5
Lloh3:
adrp x21, _HZ@GOTPAGE
Lloh4:
ldr x21, [x21, _HZ@GOTPAGEOFF]
ldr w10, [x21]
mul w9, w9, w10
add x1, x9, x0
mov x0, x8
bl _time_after
cbz x0, LBB0_5
; %bb.1:
ldr w8, [x20]
cbnz w8, LBB0_3
; %bb.2:
Lloh5:
adrp x0, l_.str@PAGE
Lloh6:
add x0, x0, l_.str@PAGEOFF
bl _pr_warn
ldr w8, [x20]
LBB0_3:
add w8, w8, #5
str w8, [x20]
sub w8, w19, w8
str x8, [sp]
Lloh7:
adrp x0, l_.str.1@PAGE
Lloh8:
add x0, x0, l_.str.1@PAGEOFF
bl _pr_cont
ldr w8, [x20]
cmp w8, w19
b.ne LBB0_5
; %bb.4:
Lloh9:
adrp x0, l_.str.2@PAGE
Lloh10:
add x0, x0, l_.str.2@PAGEOFF
bl _pr_cont
mov w0, #1
b LBB0_6
LBB0_5:
ldr w8, [x21]
mov w9, #52429
movk w9, #52428, lsl #16
mul x8, x8, x9
lsr x0, x8, #35
; kill: def $w0 killed $w0 killed $x0
bl _schedule_timeout_interruptible
mov w0, #0
LBB0_6:
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #64
ret
.loh AdrpLdrGot Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpAdd Lloh5, Lloh6
.loh AdrpAdd Lloh7, Lloh8
.loh AdrpAdd Lloh9, Lloh10
.cfi_endproc
; -- End function
.comm _jiffies,4,2 ; @jiffies
.comm _HZ,4,2 ; @HZ
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Waiting for devices to initialise: "
l_.str.1: ; @.str.1
.asciz "%us..."
l_.str.2: ; @.str.2
.asciz "\n"
.no_dead_strip _wait_loop
.subsections_via_symbols
| AnghaBench/linux/drivers/xen/xenbus/extr_xenbus_probe_frontend.c_wait_loop.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _ar5211GetRxDP ## -- Begin function ar5211GetRxDP
.p2align 4, 0x90
_ar5211GetRxDP: ## @ar5211GetRxDP
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
movq %rdi, %rbx
movq _HAL_RX_QUEUE_HP@GOTPCREL(%rip), %rax
xorl %edi, %edi
cmpq %rsi, (%rax)
sete %dil
callq _HALASSERT
movq _AR_RXDP@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq %rbx, %rdi
addq $8, %rsp
popq %rbx
popq %rbp
jmp _OS_REG_READ ## TAILCALL
.cfi_endproc
## -- End function
.comm _HAL_RX_QUEUE_HP,8,3 ## @HAL_RX_QUEUE_HP
.comm _AR_RXDP,4,2 ## @AR_RXDP
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _ar5211GetRxDP ; -- Begin function ar5211GetRxDP
.p2align 2
_ar5211GetRxDP: ; @ar5211GetRxDP
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x0
Lloh0:
adrp x8, _HAL_RX_QUEUE_HP@GOTPAGE
Lloh1:
ldr x8, [x8, _HAL_RX_QUEUE_HP@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
cmp x8, x1
cset w0, eq
bl _HALASSERT
Lloh3:
adrp x8, _AR_RXDP@GOTPAGE
Lloh4:
ldr x8, [x8, _AR_RXDP@GOTPAGEOFF]
Lloh5:
ldr w1, [x8]
mov x0, x19
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _OS_REG_READ
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _HAL_RX_QUEUE_HP,8,3 ; @HAL_RX_QUEUE_HP
.comm _AR_RXDP,4,2 ; @AR_RXDP
.subsections_via_symbols
| AnghaBench/freebsd/sys/dev/ath/ath_hal/ar5211/extr_ar5211_recv.c_ar5211GetRxDP.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function pmu_disable_counter
_pmu_disable_counter: ## @pmu_disable_counter
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %esi, %edx
movq _CCI_PMU_CNTR_CTRL@GOTPCREL(%rip), %rax
movl (%rax), %ecx
xorl %esi, %esi
popq %rbp
jmp _pmu_write_register ## TAILCALL
.cfi_endproc
## -- End function
.comm _CCI_PMU_CNTR_CTRL,4,2 ## @CCI_PMU_CNTR_CTRL
.no_dead_strip _pmu_disable_counter
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function pmu_disable_counter
_pmu_disable_counter: ; @pmu_disable_counter
.cfi_startproc
; %bb.0:
mov x2, x1
Lloh0:
adrp x8, _CCI_PMU_CNTR_CTRL@GOTPAGE
Lloh1:
ldr x8, [x8, _CCI_PMU_CNTR_CTRL@GOTPAGEOFF]
Lloh2:
ldr w3, [x8]
mov w1, #0
b _pmu_write_register
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _CCI_PMU_CNTR_CTRL,4,2 ; @CCI_PMU_CNTR_CTRL
.no_dead_strip _pmu_disable_counter
.subsections_via_symbols
| AnghaBench/linux/drivers/perf/extr_arm-cci.c_pmu_disable_counter.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ## -- Begin function main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
subq $1040, %rsp ## imm = 0x410
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -40(%rbp)
callq _fork
movl %eax, %r15d
testl %eax, %eax
je LBB0_9
## %bb.1:
cmpl $-1, %r15d
je LBB0_2
## %bb.4:
callq _setsid
cmpl $-1, %eax
je LBB0_5
## %bb.6:
leaq L_.str.2(%rip), %rdi
callq _chdir
callq _getpid
movl %eax, %ebx
movl %eax, %edi
callq _getpgid
movl %eax, %r14d
movl %ebx, %edi
callq _getsid
movl %eax, %r12d
leaq L_.str.3(%rip), %rdi
xorl %r15d, %r15d
movl %ebx, %esi
xorl %eax, %eax
callq _printf
callq _getppid
leaq L_.str.4(%rip), %rdi
movl %eax, %esi
xorl %eax, %eax
callq _printf
leaq L_.str.5(%rip), %rdi
movl %r12d, %esi
xorl %eax, %eax
callq _printf
leaq L_.str.6(%rip), %rdi
movl %r14d, %esi
xorl %eax, %eax
callq _printf
leaq -1072(%rbp), %rdi
movl $1024, %esi ## imm = 0x400
callq _getcwd
testq %rax, %rax
je LBB0_7
## %bb.8:
leaq L_.str.8(%rip), %rdi
leaq -1072(%rbp), %rsi
xorl %eax, %eax
callq _printf
LBB0_9:
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -40(%rbp), %rax
jne LBB0_11
## %bb.10:
movl %r15d, %eax
addq $1040, %rsp ## imm = 0x410
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
LBB0_2:
leaq L_.str(%rip), %rdi
jmp LBB0_3
LBB0_5:
leaq L_.str.1(%rip), %rdi
jmp LBB0_3
LBB0_7:
leaq L_.str.7(%rip), %rdi
LBB0_3:
callq _perror
movl $-1, %r15d
jmp LBB0_9
LBB0_11:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Error while executing fork"
L_.str.1: ## @.str.1
.asciz "Error while executing setsid"
L_.str.2: ## @.str.2
.asciz "/tmp"
L_.str.3: ## @.str.3
.asciz "PID: %d\n"
L_.str.4: ## @.str.4
.asciz "PPID: %d\n"
L_.str.5: ## @.str.5
.asciz "SID: %d\n"
L_.str.6: ## @.str.6
.asciz "PGID: %d\n"
L_.str.7: ## @.str.7
.asciz "Error while executing getcwd"
L_.str.8: ## @.str.8
.asciz "Current directory: %s\n"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
sub sp, sp, #1040
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
stur x8, [x29, #-40]
bl _fork
cbz w0, LBB0_5
; %bb.1:
cmn w0, #1
b.eq LBB0_7
; %bb.2:
bl _setsid
cmn w0, #1
b.eq LBB0_8
; %bb.3:
Lloh3:
adrp x0, l_.str.2@PAGE
Lloh4:
add x0, x0, l_.str.2@PAGEOFF
bl _chdir
bl _getpid
mov x19, x0
bl _getpgid
mov x20, x0
mov x0, x19
bl _getsid
mov x21, x0
str x19, [sp]
Lloh5:
adrp x0, l_.str.3@PAGE
Lloh6:
add x0, x0, l_.str.3@PAGEOFF
bl _printf
bl _getppid
; kill: def $w0 killed $w0 def $x0
str x0, [sp]
Lloh7:
adrp x0, l_.str.4@PAGE
Lloh8:
add x0, x0, l_.str.4@PAGEOFF
bl _printf
str x21, [sp]
Lloh9:
adrp x0, l_.str.5@PAGE
Lloh10:
add x0, x0, l_.str.5@PAGEOFF
bl _printf
str x20, [sp]
Lloh11:
adrp x0, l_.str.6@PAGE
Lloh12:
add x0, x0, l_.str.6@PAGEOFF
bl _printf
add x19, sp, #8
add x0, sp, #8
mov w1, #1024
bl _getcwd
cbz x0, LBB0_9
; %bb.4:
str x19, [sp]
Lloh13:
adrp x0, l_.str.8@PAGE
Lloh14:
add x0, x0, l_.str.8@PAGEOFF
bl _printf
mov w0, #0
LBB0_5:
ldur x8, [x29, #-40]
Lloh15:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh16:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh17:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_11
; %bb.6:
add sp, sp, #1040
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
LBB0_7:
Lloh18:
adrp x0, l_.str@PAGE
Lloh19:
add x0, x0, l_.str@PAGEOFF
b LBB0_10
LBB0_8:
Lloh20:
adrp x0, l_.str.1@PAGE
Lloh21:
add x0, x0, l_.str.1@PAGEOFF
b LBB0_10
LBB0_9:
Lloh22:
adrp x0, l_.str.7@PAGE
Lloh23:
add x0, x0, l_.str.7@PAGEOFF
LBB0_10:
bl _perror
mov w0, #-1
b LBB0_5
LBB0_11:
bl ___stack_chk_fail
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpAdd Lloh11, Lloh12
.loh AdrpAdd Lloh9, Lloh10
.loh AdrpAdd Lloh7, Lloh8
.loh AdrpAdd Lloh5, Lloh6
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpAdd Lloh13, Lloh14
.loh AdrpLdrGotLdr Lloh15, Lloh16, Lloh17
.loh AdrpAdd Lloh18, Lloh19
.loh AdrpAdd Lloh20, Lloh21
.loh AdrpAdd Lloh22, Lloh23
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Error while executing fork"
l_.str.1: ; @.str.1
.asciz "Error while executing setsid"
l_.str.2: ; @.str.2
.asciz "/tmp"
l_.str.3: ; @.str.3
.asciz "PID: %d\n"
l_.str.4: ; @.str.4
.asciz "PPID: %d\n"
l_.str.5: ; @.str.5
.asciz "SID: %d\n"
l_.str.6: ; @.str.6
.asciz "PGID: %d\n"
l_.str.7: ; @.str.7
.asciz "Error while executing getcwd"
l_.str.8: ; @.str.8
.asciz "Current directory: %s\n"
.subsections_via_symbols
| the_stack_data/894395.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function u132_ring_queue_work
_u132_ring_queue_work: ## @u132_ring_queue_work
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %edx, %r14d
movq %rsi, %r15
movq %rdi, %rbx
callq _kref_get
movq %rbx, %rdi
movq %r15, %rsi
movl %r14d, %edx
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
jmp _u132_ring_requeue_work ## TAILCALL
.cfi_endproc
## -- End function
.no_dead_strip _u132_ring_queue_work
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function u132_ring_queue_work
_u132_ring_queue_work: ; @u132_ring_queue_work
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x2
mov x20, x1
mov x21, x0
bl _kref_get
mov x0, x21
mov x1, x20
mov x2, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b _u132_ring_requeue_work
.cfi_endproc
; -- End function
.no_dead_strip _u132_ring_queue_work
.subsections_via_symbols
| AnghaBench/linux/drivers/usb/host/extr_u132-hcd.c_u132_ring_queue_work.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _write_seek ## -- Begin function write_seek
.p2align 4, 0x90
_write_seek: ## @write_seek
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
movq %rdi, %rbx
xorl %eax, %eax
callq _flushout
movq _newidx_fd@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _SEEK_SET@GOTPCREL(%rip), %rax
movl (%rax), %edx
movq %rbx, %rsi
callq _lseek
xorl %edi, %edi
cmpq %rbx, %rax
sete %dil
callq _assert
movq _write_pos@GOTPCREL(%rip), %rax
movq %rbx, (%rax)
addq $8, %rsp
popq %rbx
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _newidx_fd,4,2 ## @newidx_fd
.comm _SEEK_SET,4,2 ## @SEEK_SET
.comm _write_pos,8,3 ## @write_pos
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _write_seek ; -- Begin function write_seek
.p2align 2
_write_seek: ; @write_seek
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x0
bl _flushout
Lloh0:
adrp x8, _newidx_fd@GOTPAGE
Lloh1:
ldr x8, [x8, _newidx_fd@GOTPAGEOFF]
Lloh2:
ldr w0, [x8]
Lloh3:
adrp x8, _SEEK_SET@GOTPAGE
Lloh4:
ldr x8, [x8, _SEEK_SET@GOTPAGEOFF]
Lloh5:
ldr w2, [x8]
mov x1, x19
bl _lseek
cmp x0, x19
cset w0, eq
bl _assert
Lloh6:
adrp x8, _write_pos@GOTPAGE
Lloh7:
ldr x8, [x8, _write_pos@GOTPAGEOFF]
Lloh8:
str x19, [x8]
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotStr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _newidx_fd,4,2 ; @newidx_fd
.comm _SEEK_SET,4,2 ; @SEEK_SET
.comm _write_pos,8,3 ; @write_pos
.subsections_via_symbols
| AnghaBench/kphp-kdb/statsx/extr_statsx-data.c_write_seek.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _csum8_get ## -- Begin function csum8_get
.p2align 4, 0x90
_csum8_get: ## @csum8_get
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
subl (%rdi), %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _csum8_get ; -- Begin function csum8_get
.p2align 2
_csum8_get: ; @csum8_get
.cfi_startproc
; %bb.0:
ldr w8, [x0]
neg w0, w8
ret
.cfi_endproc
; -- End function
.subsections_via_symbols
| AnghaBench/lede/tools/firmware-utils/src/extr_mkcasfw.c_csum8_get.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function eth_rx_mode
_eth_rx_mode: ## @eth_rx_mode
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdi, %r14
callq _netdev_priv
movq %rax, %rbx
movq 8(%rax), %r15
movq (%r15), %rdi
callq ___raw_readl
movq _IFF_PROMISC@GOTPCREL(%rip), %rcx
movl (%rcx), %edx
movl (%rbx), %ecx
testl %edx, (%r14)
je LBB0_5
## %bb.1:
cmpl $3, %ecx
jne LBB0_4
## %bb.2:
movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx
movb (%rcx), %cl
movl $4, %edi
jmp LBB0_3
LBB0_5:
cmpl $3, %ecx
jne LBB0_7
## %bb.6:
movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx
movb (%rcx), %cl
movl $4, %edx
jmp LBB0_8
LBB0_4:
movl $1, %edi
## kill: def $cl killed $cl killed $ecx
shll %cl, %edi
movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx
movb (%rcx), %cl
LBB0_3:
shll %cl, %edi
orl %eax, %edi
jmp LBB0_9
LBB0_7:
movl $1, %edx
## kill: def $cl killed $cl killed $ecx
shll %cl, %edx
movq _PROMISC_OFFSET@GOTPCREL(%rip), %rcx
movb (%rcx), %cl
LBB0_8:
shll %cl, %edx
notl %edx
andl %edx, %eax
movl %eax, %edi
LBB0_9:
movq (%r15), %rsi
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
jmp ___raw_writel ## TAILCALL
.cfi_endproc
## -- End function
.comm _IFF_PROMISC,4,2 ## @IFF_PROMISC
.comm _PROMISC_OFFSET,4,2 ## @PROMISC_OFFSET
.no_dead_strip _eth_rx_mode
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function eth_rx_mode
_eth_rx_mode: ; @eth_rx_mode
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x0
bl _netdev_priv
mov x20, x0
ldr x21, [x0, #8]
ldr x0, [x21]
bl ___raw_readl
ldr w9, [x19]
Lloh0:
adrp x8, _IFF_PROMISC@GOTPAGE
Lloh1:
ldr x8, [x8, _IFF_PROMISC@GOTPAGEOFF]
Lloh2:
ldr w10, [x8]
ldr w8, [x20]
tst w10, w9
b.eq LBB0_3
; %bb.1:
cmp w8, #3
b.ne LBB0_5
; %bb.2:
Lloh3:
adrp x8, _PROMISC_OFFSET@GOTPAGE
Lloh4:
ldr x8, [x8, _PROMISC_OFFSET@GOTPAGEOFF]
Lloh5:
ldr w8, [x8]
mov w9, #4
lsl w8, w9, w8
orr w0, w8, w0
b LBB0_8
LBB0_3:
cmp w8, #3
b.ne LBB0_6
; %bb.4:
Lloh6:
adrp x8, _PROMISC_OFFSET@GOTPAGE
Lloh7:
ldr x8, [x8, _PROMISC_OFFSET@GOTPAGEOFF]
Lloh8:
ldr w8, [x8]
mov w9, #4
lsl w8, w9, w8
b LBB0_7
LBB0_5:
mov w9, #1
lsl w8, w9, w8
Lloh9:
adrp x9, _PROMISC_OFFSET@GOTPAGE
Lloh10:
ldr x9, [x9, _PROMISC_OFFSET@GOTPAGEOFF]
Lloh11:
ldr w9, [x9]
lsl w8, w8, w9
orr w0, w8, w0
b LBB0_8
LBB0_6:
mov w9, #1
lsl w8, w9, w8
Lloh12:
adrp x9, _PROMISC_OFFSET@GOTPAGE
Lloh13:
ldr x9, [x9, _PROMISC_OFFSET@GOTPAGEOFF]
Lloh14:
ldr w9, [x9]
lsl w8, w8, w9
LBB0_7:
bic w0, w0, w8
LBB0_8:
ldr x1, [x21]
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b ___raw_writel
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14
.cfi_endproc
; -- End function
.comm _IFF_PROMISC,4,2 ; @IFF_PROMISC
.comm _PROMISC_OFFSET,4,2 ; @PROMISC_OFFSET
.no_dead_strip _eth_rx_mode
.subsections_via_symbols
| AnghaBench/lede/target/linux/cns3xxx/files/drivers/net/ethernet/cavium/extr_cns3xxx_eth.c_eth_rx_mode.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _reach_error ## -- Begin function reach_error
.p2align 4, 0x90
_reach_error: ## @reach_error
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _assume_abort_if_not ## -- Begin function assume_abort_if_not
.p2align 4, 0x90
_assume_abort_if_not: ## @assume_abort_if_not
.cfi_startproc
## %bb.0:
testl %edi, %edi
je LBB1_2
## %bb.1:
retq
LBB1_2:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
callq _abort
.cfi_endproc
## -- End function
.globl _main ## -- Begin function main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
callq ___VERIFIER_nondet_int
## kill: def $eax killed $eax def $rax
testl %eax, %eax
jle LBB2_13
## %bb.1:
cmpl $1, %eax
je LBB2_13
## %bb.2:
cmpl $3, %eax
jb LBB2_13
## %bb.3:
je LBB2_13
## %bb.4:
cmpl $5, %eax
jb LBB2_13
## %bb.5:
leal -1(%rax), %ecx
movl $4, %edx
movl $7, %esi
LBB2_6: ## =>This Loop Header: Depth=1
## Child Loop BB2_7 Depth 2
incl %esi
.p2align 4, 0x90
LBB2_7: ## Parent Loop BB2_6 Depth=1
## => This Inner Loop Header: Depth=2
cmpl $7, %esi
jle LBB2_8
## %bb.11: ## in Loop: Header=BB2_7 Depth=2
incl %edx
xorl %esi, %esi
cmpl %eax, %edx
jl LBB2_7
jmp LBB2_12
LBB2_8: ## in Loop: Header=BB2_6 Depth=1
cmpl %edx, %eax
jle LBB2_10
## %bb.9: ## in Loop: Header=BB2_6 Depth=1
movl %ecx, %edi
subl %edx, %edi
cmpl %eax, %edi
jl LBB2_6
LBB2_10:
callq _abort
LBB2_13:
movq ___return_main@GOTPCREL(%rip), %rax
movl (%rax), %eax
popq %rbp
retq
LBB2_12:
movq ___return_1135@GOTPCREL(%rip), %rax
movl $0, (%rax)
xorl %eax, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.comm ___return_main,4,2 ## @__return_main
.comm ___return_1135,4,2 ## @__return_1135
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _reach_error ; -- Begin function reach_error
.p2align 2
_reach_error: ; @reach_error
.cfi_startproc
; %bb.0:
ret
.cfi_endproc
; -- End function
.globl _assume_abort_if_not ; -- Begin function assume_abort_if_not
.p2align 2
_assume_abort_if_not: ; @assume_abort_if_not
.cfi_startproc
; %bb.0:
cbz w0, LBB1_2
; %bb.1:
ret
LBB1_2:
stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 16
mov x29, sp
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
bl _abort
.cfi_endproc
; -- End function
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 16
mov x29, sp
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
bl ___VERIFIER_nondet_int
subs w8, w0, #1
b.lt LBB2_12
; %bb.1:
b.eq LBB2_12
; %bb.2:
cmp w0, #3
b.lo LBB2_12
; %bb.3:
b.eq LBB2_12
; %bb.4:
cmp w0, #5
b.lo LBB2_12
; %bb.5:
mov w9, #4
mov w10, #7
LBB2_6: ; =>This Loop Header: Depth=1
; Child Loop BB2_7 Depth 2
add w10, w10, #1
LBB2_7: ; Parent Loop BB2_6 Depth=1
; => This Inner Loop Header: Depth=2
cmp w10, #7
b.le LBB2_9
; %bb.8: ; in Loop: Header=BB2_7 Depth=2
mov w10, #0
add w9, w9, #1
cmp w9, w0
b.lt LBB2_7
b LBB2_13
LBB2_9: ; in Loop: Header=BB2_6 Depth=1
cmp w0, w9
b.le LBB2_11
; %bb.10: ; in Loop: Header=BB2_6 Depth=1
sub w11, w8, w9
cmp w11, w0
b.lt LBB2_6
LBB2_11:
bl _abort
LBB2_12:
Lloh0:
adrp x8, ___return_main@GOTPAGE
Lloh1:
ldr x8, [x8, ___return_main@GOTPAGEOFF]
Lloh2:
ldr w0, [x8]
ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
ret
LBB2_13:
mov w0, #0
Lloh3:
adrp x8, ___return_1135@GOTPAGE
Lloh4:
ldr x8, [x8, ___return_1135@GOTPAGEOFF]
Lloh5:
str wzr, [x8]
ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotStr Lloh3, Lloh4, Lloh5
.cfi_endproc
; -- End function
.comm ___return_main,4,2 ; @__return_main
.comm ___return_1135,4,2 ; @__return_1135
.subsections_via_symbols
| the_stack_data/178265070.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function dlcNew
_dlcNew: ## @dlcNew
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %esi, %r15d
movl %edi, %r14d
movl $12, %edi
callq _sqlite3_malloc
movq %rax, %rbx
leaq 8(%rax), %r12
movq %r12, %rdi
xorl %esi, %esi
callq _dataBufferInit
movq %rbx, %rdi
movl %r15d, %esi
movq %r12, %rdx
callq _dlwInit
leaq 4(%rbx), %rdi
movq %rbx, %rsi
movl %r14d, %edx
callq _plwInit
movq %rbx, %rax
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.no_dead_strip _dlcNew
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function dlcNew
_dlcNew: ; @dlcNew
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x1
mov x20, x0
mov w0, #12
bl _sqlite3_malloc
mov x21, x0
add x22, x0, #8
mov x0, x22
mov w1, #0
bl _dataBufferInit
mov x0, x21
mov x1, x19
mov x2, x22
bl _dlwInit
add x0, x21, #4
mov x1, x21
mov x2, x20
bl _plwInit
mov x0, x21
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.cfi_endproc
; -- End function
.no_dead_strip _dlcNew
.subsections_via_symbols
| AnghaBench/sqlcipher/ext/fts2/extr_fts2.c_dlcNew.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _mp_int_divisible_value ## -- Begin function mp_int_divisible_value
.p2align 4, 0x90
_mp_int_divisible_value: ## @mp_int_divisible_value
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
subq $16, %rsp
movq $0, -8(%rbp)
leaq -8(%rbp), %rcx
xorl %edx, %edx
callq _mp_int_div_value
movq _MP_OK@GOTPCREL(%rip), %rcx
xorq (%rcx), %rax
xorl %ecx, %ecx
orq -8(%rbp), %rax
sete %cl
movl %ecx, %eax
addq $16, %rsp
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _MP_OK,8,3 ## @MP_OK
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _mp_int_divisible_value ; -- Begin function mp_int_divisible_value
.p2align 2
_mp_int_divisible_value: ; @mp_int_divisible_value
.cfi_startproc
; %bb.0:
sub sp, sp, #32
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
str xzr, [sp, #8]
add x3, sp, #8
mov x2, #0
bl _mp_int_div_value
Lloh0:
adrp x8, _MP_OK@GOTPAGE
Lloh1:
ldr x8, [x8, _MP_OK@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
cmp x0, x8
ldr x8, [sp, #8]
ccmp x8, #0, #0, eq
cset w0, eq
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #32
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _MP_OK,8,3 ; @MP_OK
.subsections_via_symbols
| AnghaBench/postgres/contrib/pgcrypto/extr_imath.c_mp_int_divisible_value.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function m68k_op_or_32_er_pi
_m68k_op_or_32_er_pi: ## @m68k_op_or_32_er_pi
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
xorl %eax, %eax
callq _OPER_AY_PI_32
movl %eax, %ebx
movq _DX@GOTPCREL(%rip), %rax
orl (%rax), %ebx
movl %ebx, (%rax)
movl %ebx, %edi
callq _NFLAG_32
movq _FLAG_N@GOTPCREL(%rip), %rcx
movl %eax, (%rcx)
movq _FLAG_Z@GOTPCREL(%rip), %rax
movl %ebx, (%rax)
movq _CFLAG_CLEAR@GOTPCREL(%rip), %rax
movl (%rax), %eax
movq _FLAG_C@GOTPCREL(%rip), %rcx
movl %eax, (%rcx)
movq _VFLAG_CLEAR@GOTPCREL(%rip), %rax
movl (%rax), %eax
movq _FLAG_V@GOTPCREL(%rip), %rcx
movl %eax, (%rcx)
addq $8, %rsp
popq %rbx
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _DX,4,2 ## @DX
.comm _FLAG_N,4,2 ## @FLAG_N
.comm _FLAG_Z,4,2 ## @FLAG_Z
.comm _CFLAG_CLEAR,4,2 ## @CFLAG_CLEAR
.comm _FLAG_C,4,2 ## @FLAG_C
.comm _VFLAG_CLEAR,4,2 ## @VFLAG_CLEAR
.comm _FLAG_V,4,2 ## @FLAG_V
.no_dead_strip _m68k_op_or_32_er_pi
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function m68k_op_or_32_er_pi
_m68k_op_or_32_er_pi: ; @m68k_op_or_32_er_pi
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
bl _OPER_AY_PI_32
Lloh0:
adrp x8, _DX@GOTPAGE
Lloh1:
ldr x8, [x8, _DX@GOTPAGEOFF]
ldr w9, [x8]
orr w19, w9, w0
str w19, [x8]
mov x0, x19
bl _NFLAG_32
Lloh2:
adrp x8, _FLAG_N@GOTPAGE
Lloh3:
ldr x8, [x8, _FLAG_N@GOTPAGEOFF]
Lloh4:
str w0, [x8]
Lloh5:
adrp x8, _FLAG_Z@GOTPAGE
Lloh6:
ldr x8, [x8, _FLAG_Z@GOTPAGEOFF]
Lloh7:
str w19, [x8]
Lloh8:
adrp x8, _CFLAG_CLEAR@GOTPAGE
Lloh9:
ldr x8, [x8, _CFLAG_CLEAR@GOTPAGEOFF]
Lloh10:
ldr w8, [x8]
Lloh11:
adrp x9, _FLAG_C@GOTPAGE
Lloh12:
ldr x9, [x9, _FLAG_C@GOTPAGEOFF]
Lloh13:
str w8, [x9]
Lloh14:
adrp x8, _VFLAG_CLEAR@GOTPAGE
Lloh15:
ldr x8, [x8, _VFLAG_CLEAR@GOTPAGEOFF]
Lloh16:
ldr w8, [x8]
Lloh17:
adrp x9, _FLAG_V@GOTPAGE
Lloh18:
ldr x9, [x9, _FLAG_V@GOTPAGEOFF]
Lloh19:
str w8, [x9]
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotStr Lloh17, Lloh18, Lloh19
.loh AdrpLdrGotLdr Lloh14, Lloh15, Lloh16
.loh AdrpLdrGotStr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10
.loh AdrpLdrGotStr Lloh5, Lloh6, Lloh7
.loh AdrpLdrGotStr Lloh2, Lloh3, Lloh4
.loh AdrpLdrGot Lloh0, Lloh1
.cfi_endproc
; -- End function
.comm _DX,4,2 ; @DX
.comm _FLAG_N,4,2 ; @FLAG_N
.comm _FLAG_Z,4,2 ; @FLAG_Z
.comm _CFLAG_CLEAR,4,2 ; @CFLAG_CLEAR
.comm _FLAG_C,4,2 ; @FLAG_C
.comm _VFLAG_CLEAR,4,2 ; @VFLAG_CLEAR
.comm _FLAG_V,4,2 ; @FLAG_V
.no_dead_strip _m68k_op_or_32_er_pi
.subsections_via_symbols
| AnghaBench/Provenance/Cores/Genesis-Plus-GX/PVGenesis/Genesis/GenesisCore/genplusgx_source/m68k/extr_m68kops.h_m68k_op_or_32_er_pi.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _ib_process_rmpp_recv_wc ## -- Begin function ib_process_rmpp_recv_wc
.p2align 4, 0x90
_ib_process_rmpp_recv_wc: ## @ib_process_rmpp_recv_wc
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rsi, %rbx
movq (%rsi), %rax
movq _IB_MGMT_RMPP_FLAG_ACTIVE@GOTPCREL(%rip), %rcx
movl (%rcx), %ecx
testl %ecx, (%rax)
je LBB0_12
## %bb.1:
movq %rdi, %r14
movq 8(%rax), %rcx
movq _IB_MGMT_RMPP_VERSION@GOTPCREL(%rip), %rdx
cmpq (%rdx), %rcx
jne LBB0_2
## %bb.3:
movl 16(%rax), %eax
addl $-128, %eax
cmpl $3, %eax
ja LBB0_9
## %bb.4:
leaq LJTI0_0(%rip), %rcx
movslq (%rcx,%rax,4), %rax
addq %rcx, %rax
jmpq *%rax
LBB0_7:
movq %r14, %rdi
movq %rbx, %rsi
callq _process_rmpp_stop
jmp LBB0_11
LBB0_2:
movq _IB_MGMT_RMPP_STATUS_UNV@GOTPCREL(%rip), %r15
LBB0_10:
movl (%r15), %edx
movq %r14, %rdi
movq %rbx, %rsi
callq _abort_send
movl (%r15), %edx
movq %r14, %rdi
movq %rbx, %rsi
callq _nack_recv
LBB0_11:
movq %rbx, %rdi
callq _ib_free_recv_mad
xorl %ebx, %ebx
LBB0_12:
movq %rbx, %rax
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
LBB0_9:
movq _IB_MGMT_RMPP_STATUS_BADT@GOTPCREL(%rip), %r15
jmp LBB0_10
LBB0_5:
movq %r14, %rdi
movq %rbx, %rsi
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
jmp _process_rmpp_data ## TAILCALL
LBB0_6:
movq %r14, %rdi
movq %rbx, %rsi
callq _process_rmpp_ack
jmp LBB0_11
LBB0_8:
movq %r14, %rdi
movq %rbx, %rsi
callq _process_rmpp_abort
jmp LBB0_11
.cfi_endproc
.p2align 2, 0x90
.data_region jt32
.set L0_0_set_7, LBB0_7-LJTI0_0
.set L0_0_set_5, LBB0_5-LJTI0_0
.set L0_0_set_6, LBB0_6-LJTI0_0
.set L0_0_set_8, LBB0_8-LJTI0_0
LJTI0_0:
.long L0_0_set_7
.long L0_0_set_5
.long L0_0_set_6
.long L0_0_set_8
.end_data_region
## -- End function
.comm _IB_MGMT_RMPP_FLAG_ACTIVE,4,2 ## @IB_MGMT_RMPP_FLAG_ACTIVE
.comm _IB_MGMT_RMPP_VERSION,8,3 ## @IB_MGMT_RMPP_VERSION
.comm _IB_MGMT_RMPP_STATUS_UNV,4,2 ## @IB_MGMT_RMPP_STATUS_UNV
.comm _IB_MGMT_RMPP_STATUS_BADT,4,2 ## @IB_MGMT_RMPP_STATUS_BADT
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _ib_process_rmpp_recv_wc ; -- Begin function ib_process_rmpp_recv_wc
.p2align 2
_ib_process_rmpp_recv_wc: ; @ib_process_rmpp_recv_wc
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x1
ldr x8, [x1]
ldr w9, [x8]
Lloh0:
adrp x10, _IB_MGMT_RMPP_FLAG_ACTIVE@GOTPAGE
Lloh1:
ldr x10, [x10, _IB_MGMT_RMPP_FLAG_ACTIVE@GOTPAGEOFF]
Lloh2:
ldr w10, [x10]
tst w10, w9
b.eq LBB0_8
; %bb.1:
mov x20, x0
ldr x9, [x8, #8]
Lloh3:
adrp x10, _IB_MGMT_RMPP_VERSION@GOTPAGE
Lloh4:
ldr x10, [x10, _IB_MGMT_RMPP_VERSION@GOTPAGEOFF]
Lloh5:
ldr x10, [x10]
cmp x9, x10
b.ne LBB0_5
; %bb.2:
ldr w8, [x8, #16]
sub w8, w8, #128
cmp w8, #3
b.hi LBB0_9
; %bb.3:
Lloh6:
adrp x9, lJTI0_0@PAGE
Lloh7:
add x9, x9, lJTI0_0@PAGEOFF
adr x10, LBB0_4
ldrb w11, [x9, x8]
add x10, x10, x11, lsl #2
br x10
LBB0_4:
mov x0, x20
mov x1, x19
bl _process_rmpp_stop
b LBB0_7
LBB0_5:
Lloh8:
adrp x21, _IB_MGMT_RMPP_STATUS_UNV@GOTPAGE
Lloh9:
ldr x21, [x21, _IB_MGMT_RMPP_STATUS_UNV@GOTPAGEOFF]
LBB0_6:
ldr w2, [x21]
mov x0, x20
mov x1, x19
bl _abort_send
ldr w2, [x21]
mov x0, x20
mov x1, x19
bl _nack_recv
LBB0_7:
mov x0, x19
bl _ib_free_recv_mad
mov x19, #0
LBB0_8:
mov x0, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
LBB0_9:
Lloh10:
adrp x21, _IB_MGMT_RMPP_STATUS_BADT@GOTPAGE
Lloh11:
ldr x21, [x21, _IB_MGMT_RMPP_STATUS_BADT@GOTPAGEOFF]
b LBB0_6
LBB0_10:
mov x0, x20
mov x1, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b _process_rmpp_data
LBB0_11:
mov x0, x20
mov x1, x19
bl _process_rmpp_ack
b LBB0_7
LBB0_12:
mov x0, x20
mov x1, x19
bl _process_rmpp_abort
b LBB0_7
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpAdd Lloh6, Lloh7
.loh AdrpLdrGot Lloh8, Lloh9
.loh AdrpLdrGot Lloh10, Lloh11
.cfi_endproc
.section __TEXT,__const
lJTI0_0:
.byte (LBB0_4-LBB0_4)>>2
.byte (LBB0_10-LBB0_4)>>2
.byte (LBB0_11-LBB0_4)>>2
.byte (LBB0_12-LBB0_4)>>2
; -- End function
.comm _IB_MGMT_RMPP_FLAG_ACTIVE,4,2 ; @IB_MGMT_RMPP_FLAG_ACTIVE
.comm _IB_MGMT_RMPP_VERSION,8,3 ; @IB_MGMT_RMPP_VERSION
.comm _IB_MGMT_RMPP_STATUS_UNV,4,2 ; @IB_MGMT_RMPP_STATUS_UNV
.comm _IB_MGMT_RMPP_STATUS_BADT,4,2 ; @IB_MGMT_RMPP_STATUS_BADT
.subsections_via_symbols
| AnghaBench/freebsd/sys/ofed/drivers/infiniband/core/extr_ib_mad_rmpp.c_ib_process_rmpp_recv_wc.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _rtw_ips_pwr_down ## -- Begin function rtw_ips_pwr_down
.p2align 4, 0x90
_rtw_ips_pwr_down: ## @rtw_ips_pwr_down
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
movq %rdi, %rbx
leaq L_.str(%rip), %rdi
callq _DBG_871X
movabsq $4294967297, %rax ## imm = 0x100000001
movq %rax, (%rbx)
movq %rbx, %rdi
callq _rtw_ips_dev_unload
movl $0, (%rbx)
leaq L_.str.1(%rip), %rdi
addq $8, %rsp
popq %rbx
popq %rbp
jmp _DBG_871X ## TAILCALL
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "===> rtw_ips_pwr_down...................\n"
L_.str.1: ## @.str.1
.asciz "<=== rtw_ips_pwr_down.....................\n"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _rtw_ips_pwr_down ; -- Begin function rtw_ips_pwr_down
.p2align 2
_rtw_ips_pwr_down: ; @rtw_ips_pwr_down
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x0
Lloh0:
adrp x0, l_.str@PAGE
Lloh1:
add x0, x0, l_.str@PAGEOFF
bl _DBG_871X
movi.2s v0, #1
str d0, [x19]
mov x0, x19
bl _rtw_ips_dev_unload
str wzr, [x19]
Lloh2:
adrp x0, l_.str.1@PAGE
Lloh3:
add x0, x0, l_.str.1@PAGEOFF
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _DBG_871X
.loh AdrpAdd Lloh2, Lloh3
.loh AdrpAdd Lloh0, Lloh1
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "===> rtw_ips_pwr_down...................\n"
l_.str.1: ; @.str.1
.asciz "<=== rtw_ips_pwr_down.....................\n"
.subsections_via_symbols
| AnghaBench/linux/drivers/staging/rtl8723bs/os_dep/extr_os_intfs.c_rtw_ips_pwr_down.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function eg_cache_remove_entry
_eg_cache_remove_entry: ## @eg_cache_remove_entry
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rsi, %r15
movq %rdi, %rbx
movq 16(%rdi), %r14
leaq L_.str(%rip), %rdi
callq _dprintk
movq (%rbx), %rax
movq 8(%rbx), %rcx
leaq 8(%r15), %r12
testq %rax, %rax
movq %rax, %rdx
cmoveq %r12, %rdx
movq %rcx, (%rdx)
testq %rcx, %rcx
je LBB0_2
## %bb.1:
movq %rax, (%rcx)
LBB0_2:
movq 24(%r15), %rax
movq %rbx, %rdi
callq *(%rax)
cmpq $0, 16(%r15)
jne LBB0_5
## %bb.3:
cmpq $0, (%r12)
jne LBB0_5
## %bb.4:
movq _STOP_KEEP_ALIVE_SM@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, -40(%rbp)
leaq -40(%rbp), %rdi
movq %r15, %rsi
callq _msg_to_mpoad
LBB0_5:
testq %r14, %r14
je LBB0_9
## %bb.6:
movq (%r15), %rax
movq %r14, %rdi
movq %r15, %rsi
callq *8(%rax)
testq %rax, %rax
je LBB0_8
## %bb.7:
movq (%r15), %rcx
movq %rax, %rdi
callq *(%rcx)
jmp LBB0_9
LBB0_8:
movq _EPIPE@GOTPCREL(%rip), %rax
xorl %esi, %esi
subl (%rax), %esi
movq %r14, %rdi
callq _vcc_release_async
LBB0_9:
addq $16, %rsp
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "removing an egress entry.\n"
.comm _STOP_KEEP_ALIVE_SM,4,2 ## @STOP_KEEP_ALIVE_SM
.comm _EPIPE,4,2 ## @EPIPE
.no_dead_strip _eg_cache_remove_entry
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function eg_cache_remove_entry
_eg_cache_remove_entry: ; @eg_cache_remove_entry
.cfi_startproc
; %bb.0:
sub sp, sp, #64
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x20, x1
mov x21, x0
ldr x19, [x0, #16]
Lloh0:
adrp x0, l_.str@PAGE
Lloh1:
add x0, x0, l_.str@PAGEOFF
bl _dprintk
ldp x8, x9, [x21]
add x22, x20, #8
cmp x8, #0
csel x10, x22, x8, eq
str x9, [x10]
cbz x9, LBB0_2
; %bb.1:
str x8, [x9]
LBB0_2:
ldr x8, [x20, #24]
ldr x8, [x8]
mov x0, x21
blr x8
ldr x8, [x20, #16]
cbnz x8, LBB0_5
; %bb.3:
ldr x8, [x22]
cbnz x8, LBB0_5
; %bb.4:
Lloh2:
adrp x8, _STOP_KEEP_ALIVE_SM@GOTPAGE
Lloh3:
ldr x8, [x8, _STOP_KEEP_ALIVE_SM@GOTPAGEOFF]
Lloh4:
ldr w8, [x8]
str w8, [sp, #8]
add x0, sp, #8
mov x1, x20
bl _msg_to_mpoad
LBB0_5:
cbz x19, LBB0_9
; %bb.6:
ldr x8, [x20]
ldr x8, [x8, #8]
mov x0, x19
mov x1, x20
blr x8
cbz x0, LBB0_8
; %bb.7:
ldr x8, [x20]
ldr x8, [x8]
blr x8
b LBB0_9
LBB0_8:
Lloh5:
adrp x8, _EPIPE@GOTPAGE
Lloh6:
ldr x8, [x8, _EPIPE@GOTPAGEOFF]
Lloh7:
ldr w8, [x8]
neg w1, w8
mov x0, x19
bl _vcc_release_async
LBB0_9:
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #64
ret
.loh AdrpAdd Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "removing an egress entry.\n"
.comm _STOP_KEEP_ALIVE_SM,4,2 ; @STOP_KEEP_ALIVE_SM
.comm _EPIPE,4,2 ; @EPIPE
.no_dead_strip _eg_cache_remove_entry
.subsections_via_symbols
| AnghaBench/linux/net/atm/extr_mpoa_caches.c_eg_cache_remove_entry.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function ath6kl_upload_board_file
_ath6kl_upload_board_file: ## @ath6kl_upload_board_file
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdi, %r15
xorl %edi, %edi
cmpq $0, 24(%r15)
sete %dil
callq _WARN_ON
testq %rax, %rax
je LBB0_3
## %bb.1:
movq _ENOENT@GOTPCREL(%rip), %rax
LBB0_2:
xorl %ebx, %ebx
LBB0_28:
subl (%rax), %ebx
jmp LBB0_29
LBB0_3:
movq 32(%r15), %rdx
testq %rdx, %rdx
je LBB0_7
## %bb.4:
movq %rdx, -40(%rbp)
movq _hi_board_data@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq %r15, %rdi
callq _ath6kl_bmi_write_hi32
LBB0_5:
movq _hi_board_ext_data@GOTPCREL(%rip), %rax
movl (%rax), %esi
leaq -48(%rbp), %rdx
movq %r15, %rdi
callq _ath6kl_bmi_read_hi32
testl %eax, %eax
je LBB0_10
## %bb.6:
movl %eax, %ebx
leaq L_.str.1(%rip), %rdi
jmp LBB0_9
LBB0_7:
movq _hi_board_data@GOTPCREL(%rip), %rax
movl (%rax), %esi
leaq -40(%rbp), %rdx
movq %r15, %rdi
callq _ath6kl_bmi_read_hi32
testl %eax, %eax
je LBB0_5
## %bb.8:
movl %eax, %ebx
leaq L_.str(%rip), %rdi
LBB0_9:
xorl %eax, %eax
callq _ath6kl_err
LBB0_29:
movl %ebx, %eax
addq $16, %rsp
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
LBB0_10:
movl (%r15), %eax
movq -48(%rbp), %rdx
cmpl $129, %eax
jne LBB0_13
## %bb.11:
testq %rdx, %rdx
jne LBB0_13
## %bb.12:
leaq L_.str(%rip), %rdi
xorl %ebx, %ebx
xorl %eax, %eax
callq _ath6kl_err
jmp LBB0_27
LBB0_13:
cmpl $128, %eax
je LBB0_17
## %bb.14:
cmpl $129, %eax
jne LBB0_23
## %bb.15:
movq _AR6003_BOARD_DATA_SZ@GOTPCREL(%rip), %rax
movq (%rax), %r14
movq _AR6003_BOARD_EXT_DATA_SZ@GOTPCREL(%rip), %rax
movq (%rax), %r12
leaq (%r12,%r14), %rax
cmpq %rax, 8(%r15)
jle LBB0_19
## %bb.16:
movq _AR6003_BOARD_EXT_DATA_SZ_V2@GOTPCREL(%rip), %rax
jmp LBB0_18
LBB0_17:
movq _AR6004_BOARD_DATA_SZ@GOTPCREL(%rip), %rax
movq (%rax), %r14
movq _AR6004_BOARD_EXT_DATA_SZ@GOTPCREL(%rip), %rax
LBB0_18:
movq (%rax), %r12
LBB0_19:
testq %rdx, %rdx
je LBB0_25
## %bb.20:
leaq (%r12,%r14), %rax
cmpq %rax, 8(%r15)
jne LBB0_25
## %bb.21:
movq _ATH6KL_DBG_BOOT@GOTPCREL(%rip), %rax
movl (%rax), %edi
leaq L_.str.2(%rip), %rsi
movq %r12, %rcx
callq _ath6kl_dbg
movq -48(%rbp), %rsi
leaq (,%r14,4), %rdx
addq 24(%r15), %rdx
movq %r15, %rdi
movq %r12, %rcx
callq _ath6kl_bmi_write
testl %eax, %eax
je LBB0_24
## %bb.22:
movl %eax, %ebx
leaq L_.str.3(%rip), %rdi
jmp LBB0_32
LBB0_23:
movl $1, %edi
callq _WARN_ON
movq _EINVAL@GOTPCREL(%rip), %rax
jmp LBB0_2
LBB0_24:
shlq $16, %r12
orq $1, %r12
movq _hi_board_ext_data_config@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq %r15, %rdi
movq %r12, %rdx
callq _ath6kl_bmi_write_hi32
LBB0_25:
movq 8(%r15), %rsi
cmpq %r14, %rsi
jge LBB0_30
## %bb.26:
leaq L_.str.4(%rip), %rdi
xorl %ebx, %ebx
xorl %eax, %eax
callq _ath6kl_err
LBB0_27:
movq _EINVAL@GOTPCREL(%rip), %rax
jmp LBB0_28
LBB0_30:
movq _ATH6KL_DBG_BOOT@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq -40(%rbp), %rdx
leaq L_.str.5(%rip), %rsi
movq %r14, %rcx
callq _ath6kl_dbg
movq -40(%rbp), %rsi
movq 24(%r15), %rdx
movq %r15, %rdi
movq %r14, %rcx
callq _ath6kl_bmi_write
testl %eax, %eax
je LBB0_33
## %bb.31:
movl %eax, %ebx
leaq L_.str.6(%rip), %rdi
LBB0_32:
movl %ebx, %esi
xorl %eax, %eax
callq _ath6kl_err
jmp LBB0_29
LBB0_33:
movq 16(%r15), %rax
movq _AR6004_HW_1_3_VERSION@GOTPCREL(%rip), %rcx
movq _AR6004_HW_3_0_VERSION@GOTPCREL(%rip), %rdx
cmpq (%rdx), %rax
movl $1, %edx
cmoveq %r14, %rdx
cmpq (%rcx), %rax
cmoveq %r14, %rdx
movq _hi_board_data_initialized@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq %r15, %rdi
callq _ath6kl_bmi_write_hi32
xorl %ebx, %ebx
jmp LBB0_29
.cfi_endproc
## -- End function
.comm _ENOENT,4,2 ## @ENOENT
.comm _hi_board_data,4,2 ## @hi_board_data
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Failed to get board file target address.\n"
.comm _hi_board_ext_data,4,2 ## @hi_board_ext_data
L_.str.1: ## @.str.1
.asciz "Failed to get extended board file target address.\n"
.comm _EINVAL,4,2 ## @EINVAL
.comm _AR6003_BOARD_DATA_SZ,8,3 ## @AR6003_BOARD_DATA_SZ
.comm _AR6003_BOARD_EXT_DATA_SZ,8,3 ## @AR6003_BOARD_EXT_DATA_SZ
.comm _AR6003_BOARD_EXT_DATA_SZ_V2,8,3 ## @AR6003_BOARD_EXT_DATA_SZ_V2
.comm _AR6004_BOARD_DATA_SZ,8,3 ## @AR6004_BOARD_DATA_SZ
.comm _AR6004_BOARD_EXT_DATA_SZ,8,3 ## @AR6004_BOARD_EXT_DATA_SZ
.comm _ATH6KL_DBG_BOOT,4,2 ## @ATH6KL_DBG_BOOT
L_.str.2: ## @.str.2
.asciz "writing extended board data to 0x%x (%d B)\n"
L_.str.3: ## @.str.3
.asciz "Failed to write extended board data: %d\n"
.comm _hi_board_ext_data_config,4,2 ## @hi_board_ext_data_config
L_.str.4: ## @.str.4
.asciz "Too small board file: %zu\n"
L_.str.5: ## @.str.5
.asciz "writing board file to 0x%x (%d B)\n"
L_.str.6: ## @.str.6
.asciz "Board file bmi write failed: %d\n"
.comm _AR6004_HW_1_3_VERSION,8,3 ## @AR6004_HW_1_3_VERSION
.comm _AR6004_HW_3_0_VERSION,8,3 ## @AR6004_HW_3_0_VERSION
.comm _hi_board_data_initialized,4,2 ## @hi_board_data_initialized
.no_dead_strip _ath6kl_upload_board_file
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function ath6kl_upload_board_file
_ath6kl_upload_board_file: ; @ath6kl_upload_board_file
.cfi_startproc
; %bb.0:
sub sp, sp, #80
.cfi_def_cfa_offset 80
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x0
ldr x8, [x0, #24]
cmp x8, #0
cset w0, eq
bl _WARN_ON
cbz x0, LBB0_3
; %bb.1:
Lloh0:
adrp x8, _ENOENT@GOTPAGE
Lloh1:
ldr x8, [x8, _ENOENT@GOTPAGEOFF]
LBB0_2:
ldr w8, [x8]
neg w21, w8
b LBB0_10
LBB0_3:
ldr x2, [x19, #32]
cbz x2, LBB0_7
; %bb.4:
str x2, [sp, #24]
Lloh2:
adrp x8, _hi_board_data@GOTPAGE
Lloh3:
ldr x8, [x8, _hi_board_data@GOTPAGEOFF]
Lloh4:
ldr w1, [x8]
mov x0, x19
bl _ath6kl_bmi_write_hi32
LBB0_5:
Lloh5:
adrp x8, _hi_board_ext_data@GOTPAGE
Lloh6:
ldr x8, [x8, _hi_board_ext_data@GOTPAGEOFF]
Lloh7:
ldr w1, [x8]
add x2, sp, #16
mov x0, x19
bl _ath6kl_bmi_read_hi32
cbz w0, LBB0_11
; %bb.6:
mov x21, x0
Lloh8:
adrp x0, l_.str.1@PAGE
Lloh9:
add x0, x0, l_.str.1@PAGEOFF
b LBB0_9
LBB0_7:
Lloh10:
adrp x8, _hi_board_data@GOTPAGE
Lloh11:
ldr x8, [x8, _hi_board_data@GOTPAGEOFF]
Lloh12:
ldr w1, [x8]
add x2, sp, #24
mov x0, x19
bl _ath6kl_bmi_read_hi32
cbz w0, LBB0_5
; %bb.8:
mov x21, x0
Lloh13:
adrp x0, l_.str@PAGE
Lloh14:
add x0, x0, l_.str@PAGEOFF
LBB0_9:
bl _ath6kl_err
LBB0_10:
mov x0, x21
ldp x29, x30, [sp, #64] ; 16-byte Folded Reload
ldp x20, x19, [sp, #48] ; 16-byte Folded Reload
ldp x22, x21, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #80
ret
LBB0_11:
ldr w8, [x19]
ldr x2, [sp, #16]
cmp w8, #129
b.ne LBB0_14
; %bb.12:
cbnz x2, LBB0_14
; %bb.13:
Lloh15:
adrp x0, l_.str@PAGE
Lloh16:
add x0, x0, l_.str@PAGEOFF
b LBB0_26
LBB0_14:
cmp w8, #128
b.eq LBB0_17
; %bb.15:
cmp w8, #129
b.ne LBB0_22
; %bb.16:
Lloh17:
adrp x8, _AR6003_BOARD_DATA_SZ@GOTPAGE
Lloh18:
ldr x8, [x8, _AR6003_BOARD_DATA_SZ@GOTPAGEOFF]
Lloh19:
ldr x20, [x8]
Lloh20:
adrp x8, _AR6003_BOARD_EXT_DATA_SZ@GOTPAGE
Lloh21:
ldr x8, [x8, _AR6003_BOARD_EXT_DATA_SZ@GOTPAGEOFF]
Lloh22:
ldr x8, [x8]
ldr x9, [x19, #8]
Lloh23:
adrp x10, _AR6003_BOARD_EXT_DATA_SZ_V2@GOTPAGE
Lloh24:
ldr x10, [x10, _AR6003_BOARD_EXT_DATA_SZ_V2@GOTPAGEOFF]
Lloh25:
ldr x10, [x10]
add x11, x8, x20
cmp x9, x11
csel x22, x10, x8, gt
b LBB0_18
LBB0_17:
Lloh26:
adrp x8, _AR6004_BOARD_DATA_SZ@GOTPAGE
Lloh27:
ldr x8, [x8, _AR6004_BOARD_DATA_SZ@GOTPAGEOFF]
Lloh28:
ldr x20, [x8]
Lloh29:
adrp x8, _AR6004_BOARD_EXT_DATA_SZ@GOTPAGE
Lloh30:
ldr x8, [x8, _AR6004_BOARD_EXT_DATA_SZ@GOTPAGEOFF]
Lloh31:
ldr x22, [x8]
LBB0_18:
cbz x2, LBB0_24
; %bb.19:
ldr x8, [x19, #8]
add x9, x22, x20
cmp x8, x9
b.ne LBB0_24
; %bb.20:
Lloh32:
adrp x8, _ATH6KL_DBG_BOOT@GOTPAGE
Lloh33:
ldr x8, [x8, _ATH6KL_DBG_BOOT@GOTPAGEOFF]
Lloh34:
ldr w0, [x8]
Lloh35:
adrp x1, l_.str.2@PAGE
Lloh36:
add x1, x1, l_.str.2@PAGEOFF
mov x3, x22
bl _ath6kl_dbg
ldr x1, [sp, #16]
ldr x8, [x19, #24]
add x2, x8, x20, lsl #2
mov x0, x19
mov x3, x22
bl _ath6kl_bmi_write
cbz w0, LBB0_23
; %bb.21:
mov x21, x0
str x21, [sp]
Lloh37:
adrp x0, l_.str.3@PAGE
Lloh38:
add x0, x0, l_.str.3@PAGEOFF
b LBB0_9
LBB0_22:
mov w0, #1
bl _WARN_ON
b LBB0_27
LBB0_23:
mov w2, #1
bfi x2, x22, #16, #48
Lloh39:
adrp x8, _hi_board_ext_data_config@GOTPAGE
Lloh40:
ldr x8, [x8, _hi_board_ext_data_config@GOTPAGEOFF]
Lloh41:
ldr w1, [x8]
mov x0, x19
bl _ath6kl_bmi_write_hi32
LBB0_24:
ldr x8, [x19, #8]
cmp x8, x20
b.ge LBB0_28
; %bb.25:
str x8, [sp]
Lloh42:
adrp x0, l_.str.4@PAGE
Lloh43:
add x0, x0, l_.str.4@PAGEOFF
LBB0_26:
bl _ath6kl_err
LBB0_27:
Lloh44:
adrp x8, _EINVAL@GOTPAGE
Lloh45:
ldr x8, [x8, _EINVAL@GOTPAGEOFF]
b LBB0_2
LBB0_28:
Lloh46:
adrp x8, _ATH6KL_DBG_BOOT@GOTPAGE
Lloh47:
ldr x8, [x8, _ATH6KL_DBG_BOOT@GOTPAGEOFF]
Lloh48:
ldr w0, [x8]
ldr x2, [sp, #24]
Lloh49:
adrp x1, l_.str.5@PAGE
Lloh50:
add x1, x1, l_.str.5@PAGEOFF
mov x3, x20
bl _ath6kl_dbg
ldr x1, [sp, #24]
ldr x2, [x19, #24]
mov x0, x19
mov x3, x20
bl _ath6kl_bmi_write
mov x21, x0
cbz w0, LBB0_30
; %bb.29:
str x21, [sp]
Lloh51:
adrp x0, l_.str.6@PAGE
Lloh52:
add x0, x0, l_.str.6@PAGEOFF
bl _ath6kl_err
; kill: def $w21 killed $w21 killed $x21 def $x21
b LBB0_10
LBB0_30:
ldr x8, [x19, #16]
Lloh53:
adrp x9, _AR6004_HW_1_3_VERSION@GOTPAGE
Lloh54:
ldr x9, [x9, _AR6004_HW_1_3_VERSION@GOTPAGEOFF]
Lloh55:
ldr x9, [x9]
Lloh56:
adrp x10, _AR6004_HW_3_0_VERSION@GOTPAGE
Lloh57:
ldr x10, [x10, _AR6004_HW_3_0_VERSION@GOTPAGEOFF]
Lloh58:
ldr x10, [x10]
cmp x8, x10
ccmp x8, x9, #4, ne
csinc x2, x20, xzr, eq
Lloh59:
adrp x8, _hi_board_data_initialized@GOTPAGE
Lloh60:
ldr x8, [x8, _hi_board_data_initialized@GOTPAGEOFF]
Lloh61:
ldr w1, [x8]
mov x0, x19
bl _ath6kl_bmi_write_hi32
b LBB0_10
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.loh AdrpAdd Lloh8, Lloh9
.loh AdrpLdrGotLdr Lloh10, Lloh11, Lloh12
.loh AdrpAdd Lloh13, Lloh14
.loh AdrpAdd Lloh15, Lloh16
.loh AdrpLdrGotLdr Lloh23, Lloh24, Lloh25
.loh AdrpLdrGotLdr Lloh20, Lloh21, Lloh22
.loh AdrpLdrGotLdr Lloh17, Lloh18, Lloh19
.loh AdrpLdrGotLdr Lloh29, Lloh30, Lloh31
.loh AdrpLdrGotLdr Lloh26, Lloh27, Lloh28
.loh AdrpAdd Lloh35, Lloh36
.loh AdrpLdrGotLdr Lloh32, Lloh33, Lloh34
.loh AdrpAdd Lloh37, Lloh38
.loh AdrpLdrGotLdr Lloh39, Lloh40, Lloh41
.loh AdrpAdd Lloh42, Lloh43
.loh AdrpLdrGot Lloh44, Lloh45
.loh AdrpAdd Lloh49, Lloh50
.loh AdrpLdrGotLdr Lloh46, Lloh47, Lloh48
.loh AdrpAdd Lloh51, Lloh52
.loh AdrpLdrGotLdr Lloh59, Lloh60, Lloh61
.loh AdrpLdrGotLdr Lloh56, Lloh57, Lloh58
.loh AdrpLdrGotLdr Lloh53, Lloh54, Lloh55
.cfi_endproc
; -- End function
.comm _ENOENT,4,2 ; @ENOENT
.comm _hi_board_data,4,2 ; @hi_board_data
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Failed to get board file target address.\n"
.comm _hi_board_ext_data,4,2 ; @hi_board_ext_data
l_.str.1: ; @.str.1
.asciz "Failed to get extended board file target address.\n"
.comm _EINVAL,4,2 ; @EINVAL
.comm _AR6003_BOARD_DATA_SZ,8,3 ; @AR6003_BOARD_DATA_SZ
.comm _AR6003_BOARD_EXT_DATA_SZ,8,3 ; @AR6003_BOARD_EXT_DATA_SZ
.comm _AR6003_BOARD_EXT_DATA_SZ_V2,8,3 ; @AR6003_BOARD_EXT_DATA_SZ_V2
.comm _AR6004_BOARD_DATA_SZ,8,3 ; @AR6004_BOARD_DATA_SZ
.comm _AR6004_BOARD_EXT_DATA_SZ,8,3 ; @AR6004_BOARD_EXT_DATA_SZ
.comm _ATH6KL_DBG_BOOT,4,2 ; @ATH6KL_DBG_BOOT
l_.str.2: ; @.str.2
.asciz "writing extended board data to 0x%x (%d B)\n"
l_.str.3: ; @.str.3
.asciz "Failed to write extended board data: %d\n"
.comm _hi_board_ext_data_config,4,2 ; @hi_board_ext_data_config
l_.str.4: ; @.str.4
.asciz "Too small board file: %zu\n"
l_.str.5: ; @.str.5
.asciz "writing board file to 0x%x (%d B)\n"
l_.str.6: ; @.str.6
.asciz "Board file bmi write failed: %d\n"
.comm _AR6004_HW_1_3_VERSION,8,3 ; @AR6004_HW_1_3_VERSION
.comm _AR6004_HW_3_0_VERSION,8,3 ; @AR6004_HW_3_0_VERSION
.comm _hi_board_data_initialized,4,2 ; @hi_board_data_initialized
.no_dead_strip _ath6kl_upload_board_file
.subsections_via_symbols
| AnghaBench/linux/drivers/net/wireless/ath/ath6kl/extr_init.c_ath6kl_upload_board_file.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function smsm_parse_ipc
_smsm_parse_ipc: ## @smsm_parse_ipc
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $24, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %esi, %ebx
movq %rdi, %r12
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -48(%rbp)
movq (%rdi), %rax
movq 8(%rdi), %r14
movq (%rax), %r15
leaq L_.str(%rip), %rdx
leaq -64(%rbp), %r13
movq %r13, %rdi
movl $16, %esi
movl %ebx, %ecx
callq _snprintf
movq %r15, %rdi
movq %r13, %rsi
xorl %edx, %edx
callq _of_parse_phandle
testq %rax, %rax
je LBB0_1
## %bb.2:
movl %ebx, %ebx
movq %rax, %rdi
callq _syscon_node_to_regmap
leaq (%rbx,%rbx,2), %rbx
movl %eax, 8(%r14,%rbx,4)
movl %eax, %edi
callq _IS_ERR
testq %rax, %rax
je LBB0_4
## %bb.3:
leaq (%r14,%rbx,4), %rax
addq $8, %rax
movl (%rax), %edi
callq _PTR_ERR
jmp LBB0_9
LBB0_1:
xorl %eax, %eax
jmp LBB0_9
LBB0_4:
leaq (%r14,%rbx,4), %rcx
addq $4, %rcx
leaq -64(%rbp), %rsi
movq %r15, %rdi
movl $1, %edx
callq _of_property_read_u32_index
testl %eax, %eax
js LBB0_5
## %bb.6:
leaq (%r14,%rbx,4), %rcx
leaq -64(%rbp), %rsi
movq %r15, %rdi
movl $2, %edx
callq _of_property_read_u32_index
testl %eax, %eax
movl $0, %eax
jns LBB0_9
## %bb.7:
movq (%r12), %rdi
leaq L_.str.2(%rip), %rsi
jmp LBB0_8
LBB0_5:
movq (%r12), %rdi
leaq L_.str.1(%rip), %rsi
LBB0_8:
leaq -64(%rbp), %rdx
callq _dev_err
movq _EINVAL@GOTPCREL(%rip), %rcx
xorl %eax, %eax
subl (%rcx), %eax
LBB0_9:
movq ___stack_chk_guard@GOTPCREL(%rip), %rcx
movq (%rcx), %rcx
cmpq -48(%rbp), %rcx
jne LBB0_11
## %bb.10:
addq $24, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB0_11:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "qcom,ipc-%d"
L_.str.1: ## @.str.1
.asciz "no offset in %s\n"
.comm _EINVAL,4,2 ## @EINVAL
L_.str.2: ## @.str.2
.asciz "no bit in %s\n"
.no_dead_strip _smsm_parse_ipc
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function smsm_parse_ipc
_smsm_parse_ipc: ; @smsm_parse_ipc
.cfi_startproc
; %bb.0:
sub sp, sp, #96
.cfi_def_cfa_offset 96
stp x24, x23, [sp, #32] ; 16-byte Folded Spill
stp x22, x21, [sp, #48] ; 16-byte Folded Spill
stp x20, x19, [sp, #64] ; 16-byte Folded Spill
stp x29, x30, [sp, #80] ; 16-byte Folded Spill
add x29, sp, #80
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x21, x1
mov x19, x0
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
str x8, [sp, #24]
ldp x8, x22, [x0]
ldr x20, [x8]
Lloh3:
adrp x2, l_.str@PAGE
Lloh4:
add x2, x2, l_.str@PAGEOFF
add x0, sp, #8
mov w1, #16
mov x3, x21
bl _snprintf
add x1, sp, #8
mov x0, x20
mov w2, #0
bl _of_parse_phandle
cbz x0, LBB0_9
; %bb.1:
mov w21, w21
bl _syscon_node_to_regmap
mov w8, #12
madd x23, x21, x8, x22
str w0, [x23, #8]!
bl _IS_ERR
cbz x0, LBB0_3
; %bb.2:
ldr w0, [x23]
bl _PTR_ERR
b LBB0_9
LBB0_3:
mov w8, #12
madd x8, x21, x8, x22
add x3, x8, #4
add x1, sp, #8
mov x0, x20
mov w2, #1
bl _of_property_read_u32_index
tbnz w0, #31, LBB0_6
; %bb.4:
mov w8, #12
madd x3, x21, x8, x22
add x1, sp, #8
mov x0, x20
mov w2, #2
bl _of_property_read_u32_index
tbnz w0, #31, LBB0_7
; %bb.5:
mov w0, #0
b LBB0_9
LBB0_6:
ldr x0, [x19]
Lloh5:
adrp x1, l_.str.1@PAGE
Lloh6:
add x1, x1, l_.str.1@PAGEOFF
b LBB0_8
LBB0_7:
ldr x0, [x19]
Lloh7:
adrp x1, l_.str.2@PAGE
Lloh8:
add x1, x1, l_.str.2@PAGEOFF
LBB0_8:
add x2, sp, #8
bl _dev_err
Lloh9:
adrp x8, _EINVAL@GOTPAGE
Lloh10:
ldr x8, [x8, _EINVAL@GOTPAGEOFF]
Lloh11:
ldr w8, [x8]
neg w0, w8
LBB0_9:
ldr x8, [sp, #24]
Lloh12:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh13:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh14:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_11
; %bb.10:
ldp x29, x30, [sp, #80] ; 16-byte Folded Reload
ldp x20, x19, [sp, #64] ; 16-byte Folded Reload
ldp x22, x21, [sp, #48] ; 16-byte Folded Reload
ldp x24, x23, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #96
ret
LBB0_11:
bl ___stack_chk_fail
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpAdd Lloh5, Lloh6
.loh AdrpAdd Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "qcom,ipc-%d"
l_.str.1: ; @.str.1
.asciz "no offset in %s\n"
.comm _EINVAL,4,2 ; @EINVAL
l_.str.2: ; @.str.2
.asciz "no bit in %s\n"
.no_dead_strip _smsm_parse_ipc
.subsections_via_symbols
| AnghaBench/linux/drivers/soc/qcom/extr_smsm.c_smsm_parse_ipc.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _dtoverlay_node_is_enabled ## -- Begin function dtoverlay_node_is_enabled
.p2align 4, 0x90
_dtoverlay_node_is_enabled: ## @dtoverlay_node_is_enabled
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
testl %esi, %esi
js LBB0_1
## %bb.2:
leaq L_.str(%rip), %rdx
xorl %r14d, %r14d
xorl %ecx, %ecx
callq _dtoverlay_get_property
testq %rax, %rax
je LBB0_6
## %bb.3:
movq %rax, %rbx
leaq L_.str.1(%rip), %rsi
movq %rax, %rdi
callq _strcmp
testq %rax, %rax
je LBB0_5
## %bb.4:
leaq L_.str.2(%rip), %rsi
movq %rbx, %rdi
callq _strcmp
testq %rax, %rax
jne LBB0_6
LBB0_5:
movl $1, %r14d
jmp LBB0_6
LBB0_1:
xorl %r14d, %r14d
LBB0_6:
movl %r14d, %eax
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "status"
L_.str.1: ## @.str.1
.asciz "okay"
L_.str.2: ## @.str.2
.asciz "ok"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _dtoverlay_node_is_enabled ; -- Begin function dtoverlay_node_is_enabled
.p2align 2
_dtoverlay_node_is_enabled: ; @dtoverlay_node_is_enabled
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
tbnz w1, #31, LBB0_4
; %bb.1:
Lloh0:
adrp x2, l_.str@PAGE
Lloh1:
add x2, x2, l_.str@PAGEOFF
mov x3, #0
bl _dtoverlay_get_property
cbz x0, LBB0_6
; %bb.2:
mov x19, x0
Lloh2:
adrp x1, l_.str.1@PAGE
Lloh3:
add x1, x1, l_.str.1@PAGEOFF
bl _strcmp
cbz x0, LBB0_5
; %bb.3:
Lloh4:
adrp x1, l_.str.2@PAGE
Lloh5:
add x1, x1, l_.str.2@PAGEOFF
mov x0, x19
bl _strcmp
cbz x0, LBB0_5
LBB0_4:
mov w0, #0
b LBB0_6
LBB0_5:
mov w0, #1
LBB0_6:
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpAdd Lloh0, Lloh1
.loh AdrpAdd Lloh2, Lloh3
.loh AdrpAdd Lloh4, Lloh5
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "status"
l_.str.1: ; @.str.1
.asciz "okay"
l_.str.2: ; @.str.2
.asciz "ok"
.subsections_via_symbols
| AnghaBench/RetroArch/gfx/include/userland/helpers/dtoverlay/extr_dtoverlay.c_dtoverlay_node_is_enabled.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _vdev_dtl_required ## -- Begin function vdev_dtl_required
.p2align 4, 0x90
_vdev_dtl_required: ## @vdev_dtl_required
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdi, %rbx
movq 16(%rdi), %r15
movq 8(%rdi), %r14
movl (%rdi), %r12d
movq _SCL_STATE_ALL@GOTPCREL(%rip), %r13
movq (%r13), %rsi
movq _RW_WRITER@GOTPCREL(%rip), %rax
movl (%rax), %edx
movq %r15, %rdi
callq _spa_config_held
xorl %edi, %edi
cmpq (%r13), %rax
sete %dil
callq _ASSERT
movq _B_TRUE@GOTPCREL(%rip), %rax
movl (%rax), %eax
cmpq %rbx, (%r15)
je LBB0_6
## %bb.1:
cmpq %rbx, %r14
je LBB0_6
## %bb.2:
movl %eax, (%rbx)
movq _B_FALSE@GOTPCREL(%rip), %r13
movl (%r13), %ecx
movq %r14, %rdi
xorl %esi, %esi
xorl %edx, %edx
callq _vdev_dtl_reassess
movq _DTL_OUTAGE@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq %r14, %rdi
callq _vdev_dtl_empty
movl %eax, %r15d
movl %r12d, (%rbx)
movl (%r13), %ecx
movq %r14, %rdi
xorl %esi, %esi
xorl %edx, %edx
callq _vdev_dtl_reassess
testl %r15d, %r15d
sete %al
je LBB0_5
## %bb.3:
movq _zio_injection_enabled@GOTPCREL(%rip), %rcx
cmpq $0, (%rcx)
je LBB0_5
## %bb.4:
movq _ECHILD@GOTPCREL(%rip), %rax
movl (%rax), %edx
movq %rbx, %rdi
xorl %esi, %esi
callq _zio_handle_device_injection
testl %eax, %eax
setne %al
LBB0_5:
movzbl %al, %eax
LBB0_6:
addq $8, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _SCL_STATE_ALL,8,3 ## @SCL_STATE_ALL
.comm _RW_WRITER,4,2 ## @RW_WRITER
.comm _B_TRUE,4,2 ## @B_TRUE
.comm _B_FALSE,4,2 ## @B_FALSE
.comm _DTL_OUTAGE,4,2 ## @DTL_OUTAGE
.comm _zio_injection_enabled,8,3 ## @zio_injection_enabled
.comm _ECHILD,4,2 ## @ECHILD
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _vdev_dtl_required ; -- Begin function vdev_dtl_required
.p2align 2
_vdev_dtl_required: ; @vdev_dtl_required
.cfi_startproc
; %bb.0:
stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x19, x0
ldp x20, x21, [x0, #8]
ldr w23, [x0]
Lloh0:
adrp x22, _SCL_STATE_ALL@GOTPAGE
Lloh1:
ldr x22, [x22, _SCL_STATE_ALL@GOTPAGEOFF]
ldr x1, [x22]
Lloh2:
adrp x8, _RW_WRITER@GOTPAGE
Lloh3:
ldr x8, [x8, _RW_WRITER@GOTPAGEOFF]
Lloh4:
ldr w2, [x8]
mov x0, x21
bl _spa_config_held
ldr x8, [x22]
cmp x0, x8
cset w0, eq
bl _ASSERT
ldr x8, [x21]
Lloh5:
adrp x9, _B_TRUE@GOTPAGE
Lloh6:
ldr x9, [x9, _B_TRUE@GOTPAGEOFF]
Lloh7:
ldr w21, [x9]
cmp x8, x19
ccmp x20, x19, #4, ne
b.eq LBB0_3
; %bb.1:
str w21, [x19]
Lloh8:
adrp x24, _B_FALSE@GOTPAGE
Lloh9:
ldr x24, [x24, _B_FALSE@GOTPAGEOFF]
ldr w3, [x24]
mov x0, x20
mov w1, #0
mov w2, #0
bl _vdev_dtl_reassess
Lloh10:
adrp x8, _DTL_OUTAGE@GOTPAGE
Lloh11:
ldr x8, [x8, _DTL_OUTAGE@GOTPAGEOFF]
Lloh12:
ldr w1, [x8]
mov x0, x20
bl _vdev_dtl_empty
mov x22, x0
cmp w0, #0
cset w21, eq
str w23, [x19]
ldr w3, [x24]
mov x0, x20
mov w1, #0
mov w2, #0
bl _vdev_dtl_reassess
Lloh13:
adrp x8, _zio_injection_enabled@GOTPAGE
Lloh14:
ldr x8, [x8, _zio_injection_enabled@GOTPAGEOFF]
Lloh15:
ldr x8, [x8]
cmp w22, #0
ccmp x8, #0, #4, ne
b.eq LBB0_3
; %bb.2:
Lloh16:
adrp x8, _ECHILD@GOTPAGE
Lloh17:
ldr x8, [x8, _ECHILD@GOTPAGEOFF]
Lloh18:
ldr w2, [x8]
mov x0, x19
mov x1, #0
bl _zio_handle_device_injection
cmp w0, #0
cset w21, ne
LBB0_3:
mov x0, x21
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
ldp x24, x23, [sp], #64 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh13, Lloh14, Lloh15
.loh AdrpLdrGotLdr Lloh10, Lloh11, Lloh12
.loh AdrpLdrGot Lloh8, Lloh9
.loh AdrpLdrGotLdr Lloh16, Lloh17, Lloh18
.cfi_endproc
; -- End function
.comm _SCL_STATE_ALL,8,3 ; @SCL_STATE_ALL
.comm _RW_WRITER,4,2 ; @RW_WRITER
.comm _B_TRUE,4,2 ; @B_TRUE
.comm _B_FALSE,4,2 ; @B_FALSE
.comm _DTL_OUTAGE,4,2 ; @DTL_OUTAGE
.comm _zio_injection_enabled,8,3 ; @zio_injection_enabled
.comm _ECHILD,4,2 ; @ECHILD
.subsections_via_symbols
| AnghaBench/zfs/module/zfs/extr_vdev.c_vdev_dtl_required.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function Import_Dir
_Import_Dir: ## @Import_Dir
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq 16(%rdi), %rax
cmpq $0, (%rax)
je LBB0_1
## %bb.2:
cmpq $0, 8(%rdi)
je LBB0_3
## %bb.4:
movq _Demux@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, 4(%rdi)
movq _Control@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, (%rdi)
movq _VLC_SUCCESS@GOTPCREL(%rip), %rax
jmp LBB0_5
LBB0_1:
movq _VLC_EGENERIC@GOTPCREL(%rip), %rax
jmp LBB0_5
LBB0_3:
movq _VLC_ETIMEOUT@GOTPCREL(%rip), %rax
LBB0_5:
movl (%rax), %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _VLC_EGENERIC,4,2 ## @VLC_EGENERIC
.comm _VLC_ETIMEOUT,4,2 ## @VLC_ETIMEOUT
.comm _Demux,4,2 ## @Demux
.comm _Control,4,2 ## @Control
.comm _VLC_SUCCESS,4,2 ## @VLC_SUCCESS
.no_dead_strip _Import_Dir
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function Import_Dir
_Import_Dir: ; @Import_Dir
.cfi_startproc
; %bb.0:
ldr x8, [x0, #16]
ldr x8, [x8]
cbz x8, LBB0_3
; %bb.1:
ldr x8, [x0, #8]
cbz x8, LBB0_4
; %bb.2:
Lloh0:
adrp x8, _Demux@GOTPAGE
Lloh1:
ldr x8, [x8, _Demux@GOTPAGEOFF]
Lloh2:
adrp x9, _Control@GOTPAGE
Lloh3:
ldr x9, [x9, _Control@GOTPAGEOFF]
Lloh4:
ldr w8, [x8]
Lloh5:
ldr w9, [x9]
stp w9, w8, [x0]
Lloh6:
adrp x8, _VLC_SUCCESS@GOTPAGE
Lloh7:
ldr x8, [x8, _VLC_SUCCESS@GOTPAGEOFF]
Lloh8:
ldr w0, [x8]
ret
LBB0_3:
Lloh9:
adrp x8, _VLC_EGENERIC@GOTPAGE
Lloh10:
ldr x8, [x8, _VLC_EGENERIC@GOTPAGEOFF]
Lloh11:
ldr w0, [x8]
ret
LBB0_4:
Lloh12:
adrp x8, _VLC_ETIMEOUT@GOTPAGE
Lloh13:
ldr x8, [x8, _VLC_ETIMEOUT@GOTPAGEOFF]
Lloh14:
ldr w0, [x8]
ret
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh4
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14
.cfi_endproc
; -- End function
.comm _VLC_EGENERIC,4,2 ; @VLC_EGENERIC
.comm _VLC_ETIMEOUT,4,2 ; @VLC_ETIMEOUT
.comm _Demux,4,2 ; @Demux
.comm _Control,4,2 ; @Control
.comm _VLC_SUCCESS,4,2 ; @VLC_SUCCESS
.no_dead_strip _Import_Dir
.subsections_via_symbols
| AnghaBench/vlc/modules/demux/extr_directory.c_Import_Dir.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__literal16,16byte_literals
.p2align 4 ## -- Begin function prepare_phy_data_for_init
LCPI0_0:
.long 65535 ## 0xffff
.long 65535 ## 0xffff
.long 0 ## 0x0
.long 0 ## 0x0
.section __TEXT,__text,regular,pure_instructions
.p2align 4, 0x90
_prepare_phy_data_for_init: ## @prepare_phy_data_for_init
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rdi, %r14
callq _b43legacy_default_baseband_attenuation
movl %eax, 112(%r14)
movq %r14, %rdi
callq _b43legacy_default_radio_attenuation
movl %eax, 108(%r14)
movq %r14, %rdi
callq _b43legacy_default_txctl1
movl %eax, 104(%r14)
movl $65535, (%r14) ## imm = 0xFFFF
xorps %xmm0, %xmm0
movups %xmm0, 88(%r14)
movq 8(%r14), %rdi
callq _ARRAY_SIZE
testl %eax, %eax
jle LBB0_3
## %bb.1:
xorl %ebx, %ebx
.p2align 4, 0x90
LBB0_2: ## =>This Inner Loop Header: Depth=1
movq 8(%r14), %rdi
movl $-1000, (%rdi,%rbx,4) ## imm = 0xFC18
incq %rbx
callq _ARRAY_SIZE
cltq
cmpq %rax, %rbx
jl LBB0_2
LBB0_3:
movq 16(%r14), %rdi
callq _ARRAY_SIZE
testl %eax, %eax
jle LBB0_6
## %bb.4:
xorl %ebx, %ebx
.p2align 4, 0x90
LBB0_5: ## =>This Inner Loop Header: Depth=1
movq 16(%r14), %rdi
movl %ebx, (%rdi,%rbx,4)
incq %rbx
callq _ARRAY_SIZE
cltq
cmpq %rax, %rbx
jl LBB0_5
LBB0_6:
movaps LCPI0_0(%rip), %xmm0 ## xmm0 = [65535,65535,0,0]
movups %xmm0, 24(%r14)
movabsq $281470681743360, %rax ## imm = 0xFFFF00000000
movq %rax, 40(%r14)
movq 80(%r14), %rdi
movl $255, %esi
movl $8, %edx
callq _memset
movq 72(%r14), %rdi
xorl %esi, %esi
movl $8, %edx
callq _memset
movq $0, 64(%r14)
movq 56(%r14), %rdi
testq %rdi, %rdi
je LBB0_8
## %bb.7:
movq _B43legacy_LO_COUNT@GOTPCREL(%rip), %rax
movl (%rax), %edx
shll $2, %edx
xorl %esi, %esi
callq _memset
LBB0_8:
movq 48(%r14), %rdi
xorl %esi, %esi
movl $8, %edx
popq %rbx
popq %r14
popq %rbp
jmp _memset ## TAILCALL
.cfi_endproc
## -- End function
.comm _B43legacy_LO_COUNT,4,2 ## @B43legacy_LO_COUNT
.no_dead_strip _prepare_phy_data_for_init
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__literal16,16byte_literals
.p2align 4 ; -- Begin function prepare_phy_data_for_init
lCPI0_0:
.long 65535 ; 0xffff
.long 65535 ; 0xffff
.long 0 ; 0x0
.long 0 ; 0x0
.section __TEXT,__text,regular,pure_instructions
.p2align 2
_prepare_phy_data_for_init: ; @prepare_phy_data_for_init
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x0
bl _b43legacy_default_baseband_attenuation
str w0, [x19, #112]
mov x0, x19
bl _b43legacy_default_radio_attenuation
str w0, [x19, #108]
mov x0, x19
bl _b43legacy_default_txctl1
str w0, [x19, #104]
mov w8, #65535
str w8, [x19]
stp xzr, xzr, [x19, #88]
ldr x0, [x19, #8]
bl _ARRAY_SIZE
cmp w0, #1
b.lt LBB0_3
; %bb.1:
mov x20, #0
mov w21, #-1000
LBB0_2: ; =>This Inner Loop Header: Depth=1
ldr x0, [x19, #8]
str w21, [x0, x20, lsl #2]
add x20, x20, #1
bl _ARRAY_SIZE
cmp x20, w0, sxtw
b.lt LBB0_2
LBB0_3:
ldr x0, [x19, #16]
bl _ARRAY_SIZE
cmp w0, #1
b.lt LBB0_6
; %bb.4:
mov x20, #0
LBB0_5: ; =>This Inner Loop Header: Depth=1
ldr x0, [x19, #16]
str w20, [x0, x20, lsl #2]
add x20, x20, #1
bl _ARRAY_SIZE
cmp x20, w0, sxtw
b.lt LBB0_5
LBB0_6:
Lloh0:
adrp x8, lCPI0_0@PAGE
Lloh1:
ldr q0, [x8, lCPI0_0@PAGEOFF]
stur q0, [x19, #24]
movi d0, #0x00ffff00000000
str d0, [x19, #40]
ldr x0, [x19, #80]
mov w1, #255
mov w2, #8
bl _memset
ldr x0, [x19, #72]
mov w1, #0
mov w2, #8
bl _memset
str xzr, [x19, #64]
ldr x0, [x19, #56]
cbz x0, LBB0_8
; %bb.7:
Lloh2:
adrp x8, _B43legacy_LO_COUNT@GOTPAGE
Lloh3:
ldr x8, [x8, _B43legacy_LO_COUNT@GOTPAGEOFF]
Lloh4:
ldr w8, [x8]
lsl w2, w8, #2
mov w1, #0
bl _memset
LBB0_8:
ldr x0, [x19, #48]
mov w1, #0
mov w2, #8
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b _memset
.loh AdrpLdr Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.cfi_endproc
; -- End function
.comm _B43legacy_LO_COUNT,4,2 ; @B43legacy_LO_COUNT
.no_dead_strip _prepare_phy_data_for_init
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/drivers/net/wireless/b43legacy/extr_main.c_prepare_phy_data_for_init.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _wpa_sm_set_pmk ## -- Begin function wpa_sm_set_pmk
.p2align 4, 0x90
_wpa_sm_set_pmk: ## @wpa_sm_set_pmk
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
testq %rdi, %rdi
je LBB0_3
## %bb.1:
movq %r8, %r15
movq %rcx, %r14
movq %rdx, %r13
movq %rsi, %r12
movq %rdi, %rbx
movq _MSG_DEBUG@GOTPCREL(%rip), %rax
movl (%rax), %edi
leaq L_.str(%rip), %rsi
movq %r12, %rdx
movq %r13, %rcx
callq _wpa_hexdump_key
movq %r13, (%rbx)
movl 36(%rbx), %edi
movq %r12, %rsi
movq %r13, %rdx
callq _os_memcpy
testq %r15, %r15
je LBB0_3
## %bb.2:
movl 28(%rbx), %edi
movl 24(%rbx), %r10d
movl 16(%rbx), %eax
movl 20(%rbx), %ebx
subq $8, %rsp
movq %r12, %rsi
movq %r13, %rdx
movq %r14, %rcx
xorl %r8d, %r8d
xorl %r9d, %r9d
pushq $0
pushq %rax
pushq %rbx
pushq %r10
pushq %r15
callq _pmksa_cache_add
addq $56, %rsp
jmp LBB0_4
LBB0_3:
addq $8, %rsp
LBB0_4:
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _MSG_DEBUG,4,2 ## @MSG_DEBUG
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "WPA: Set PMK based on external data"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _wpa_sm_set_pmk ; -- Begin function wpa_sm_set_pmk
.p2align 2
_wpa_sm_set_pmk: ; @wpa_sm_set_pmk
.cfi_startproc
; %bb.0:
sub sp, sp, #80
.cfi_def_cfa_offset 80
stp x24, x23, [sp, #16] ; 16-byte Folded Spill
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
cbz x0, LBB0_3
; %bb.1:
mov x19, x4
mov x20, x3
mov x21, x2
mov x22, x1
mov x23, x0
Lloh0:
adrp x8, _MSG_DEBUG@GOTPAGE
Lloh1:
ldr x8, [x8, _MSG_DEBUG@GOTPAGEOFF]
Lloh2:
ldr w0, [x8]
Lloh3:
adrp x1, l_.str@PAGE
Lloh4:
add x1, x1, l_.str@PAGEOFF
mov x2, x22
mov x3, x21
bl _wpa_hexdump_key
str x21, [x23]
ldr w0, [x23, #36]
mov x1, x22
mov x2, x21
bl _os_memcpy
cbz x19, LBB0_3
; %bb.2:
ldp w7, w0, [x23, #24]
ldp w9, w8, [x23, #16]
str xzr, [sp, #8]
stp w8, w9, [sp]
mov x1, x22
mov x2, x21
mov x3, x20
mov x4, #0
mov w5, #0
mov x6, x19
bl _pmksa_cache_add
LBB0_3:
ldp x29, x30, [sp, #64] ; 16-byte Folded Reload
ldp x20, x19, [sp, #48] ; 16-byte Folded Reload
ldp x22, x21, [sp, #32] ; 16-byte Folded Reload
ldp x24, x23, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #80
ret
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _MSG_DEBUG,4,2 ; @MSG_DEBUG
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "WPA: Set PMK based on external data"
.subsections_via_symbols
| AnghaBench/freebsd/contrib/wpa/src/rsn_supp/extr_wpa.c_wpa_sm_set_pmk.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _i40e_read_bw_from_alt_ram ## -- Begin function i40e_read_bw_from_alt_ram
.p2align 4, 0x90
_i40e_read_bw_from_alt_ram: ## @i40e_read_bw_from_alt_ram
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %r8, %r14
movq %rcx, %r15
movq %rdx, %rbx
movq %rsi, %r12
movq _I40E_ALT_STRUCT_FIRST_PF_OFFSET@GOTPCREL(%rip), %rax
movq _I40E_ALT_STRUCT_DWORDS_PER_PF@GOTPCREL(%rip), %rdx
movl (%rdi), %ecx
imull (%rdx), %ecx
movq _I40E_ALT_STRUCT_MAX_BW_OFFSET@GOTPCREL(%rip), %rdx
addl (%rax), %ecx
movl (%rdx), %esi
addl %ecx, %esi
movq _I40E_ALT_STRUCT_MIN_BW_OFFSET@GOTPCREL(%rip), %rax
addl (%rax), %ecx
movq %r12, %rdx
movq %rbx, %r8
callq _i40e_aq_alternate_read
movq _I40E_ALT_BW_VALID_MASK@GOTPCREL(%rip), %rcx
movl (%rcx), %edx
andl (%rbx), %edx
movq _FALSE@GOTPCREL(%rip), %rdx
movq _TRUE@GOTPCREL(%rip), %rsi
movq %rsi, %rdi
cmoveq %rdx, %rdi
movl (%rdi), %edi
movl %edi, (%r15)
movl (%rcx), %ecx
andl (%r12), %ecx
cmoveq %rdx, %rsi
movl (%rsi), %ecx
movl %ecx, (%r14)
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _I40E_ALT_STRUCT_FIRST_PF_OFFSET,4,2 ## @I40E_ALT_STRUCT_FIRST_PF_OFFSET
.comm _I40E_ALT_STRUCT_MAX_BW_OFFSET,4,2 ## @I40E_ALT_STRUCT_MAX_BW_OFFSET
.comm _I40E_ALT_STRUCT_DWORDS_PER_PF,4,2 ## @I40E_ALT_STRUCT_DWORDS_PER_PF
.comm _I40E_ALT_STRUCT_MIN_BW_OFFSET,4,2 ## @I40E_ALT_STRUCT_MIN_BW_OFFSET
.comm _I40E_ALT_BW_VALID_MASK,4,2 ## @I40E_ALT_BW_VALID_MASK
.comm _TRUE,4,2 ## @TRUE
.comm _FALSE,4,2 ## @FALSE
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _i40e_read_bw_from_alt_ram ; -- Begin function i40e_read_bw_from_alt_ram
.p2align 2
_i40e_read_bw_from_alt_ram: ; @i40e_read_bw_from_alt_ram
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x4
mov x20, x3
mov x21, x2
mov x22, x1
ldr w8, [x0]
Lloh0:
adrp x9, _I40E_ALT_STRUCT_FIRST_PF_OFFSET@GOTPAGE
Lloh1:
ldr x9, [x9, _I40E_ALT_STRUCT_FIRST_PF_OFFSET@GOTPAGEOFF]
Lloh2:
ldr w9, [x9]
Lloh3:
adrp x10, _I40E_ALT_STRUCT_MAX_BW_OFFSET@GOTPAGE
Lloh4:
ldr x10, [x10, _I40E_ALT_STRUCT_MAX_BW_OFFSET@GOTPAGEOFF]
Lloh5:
ldr w10, [x10]
Lloh6:
adrp x11, _I40E_ALT_STRUCT_DWORDS_PER_PF@GOTPAGE
Lloh7:
ldr x11, [x11, _I40E_ALT_STRUCT_DWORDS_PER_PF@GOTPAGEOFF]
Lloh8:
ldr w11, [x11]
madd w8, w8, w11, w9
add w1, w8, w10
Lloh9:
adrp x9, _I40E_ALT_STRUCT_MIN_BW_OFFSET@GOTPAGE
Lloh10:
ldr x9, [x9, _I40E_ALT_STRUCT_MIN_BW_OFFSET@GOTPAGEOFF]
Lloh11:
ldr w9, [x9]
add w3, w8, w9
mov x2, x22
mov x4, x21
bl _i40e_aq_alternate_read
ldr w8, [x21]
Lloh12:
adrp x9, _I40E_ALT_BW_VALID_MASK@GOTPAGE
Lloh13:
ldr x9, [x9, _I40E_ALT_BW_VALID_MASK@GOTPAGEOFF]
Lloh14:
adrp x10, _FALSE@GOTPAGE
Lloh15:
ldr x10, [x10, _FALSE@GOTPAGEOFF]
Lloh16:
adrp x11, _TRUE@GOTPAGE
Lloh17:
ldr x11, [x11, _TRUE@GOTPAGEOFF]
ldr w12, [x9]
tst w12, w8
csel x8, x10, x11, eq
ldr w8, [x8]
str w8, [x20]
ldr w8, [x22]
ldr w9, [x9]
tst w9, w8
csel x8, x10, x11, eq
ldr w8, [x8]
str w8, [x19]
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpLdrGot Lloh16, Lloh17
.loh AdrpLdrGot Lloh14, Lloh15
.loh AdrpLdrGot Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _I40E_ALT_STRUCT_FIRST_PF_OFFSET,4,2 ; @I40E_ALT_STRUCT_FIRST_PF_OFFSET
.comm _I40E_ALT_STRUCT_MAX_BW_OFFSET,4,2 ; @I40E_ALT_STRUCT_MAX_BW_OFFSET
.comm _I40E_ALT_STRUCT_DWORDS_PER_PF,4,2 ; @I40E_ALT_STRUCT_DWORDS_PER_PF
.comm _I40E_ALT_STRUCT_MIN_BW_OFFSET,4,2 ; @I40E_ALT_STRUCT_MIN_BW_OFFSET
.comm _I40E_ALT_BW_VALID_MASK,4,2 ; @I40E_ALT_BW_VALID_MASK
.comm _TRUE,4,2 ; @TRUE
.comm _FALSE,4,2 ; @FALSE
.subsections_via_symbols
| AnghaBench/freebsd/sys/dev/ixl/extr_i40e_common.c_i40e_read_bw_from_alt_ram.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function ov965x_set_banding_filter
_ov965x_set_banding_filter: ## @ov965x_set_banding_filter
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %esi, %ebx
movq %rdi, %r14
movq _REG_COM8@GOTPCREL(%rip), %r15
movl (%r15), %esi
leaq -32(%rbp), %rdx
callq _ov965x_read
testl %eax, %eax
jne LBB0_5
## %bb.1:
movq _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPCREL(%rip), %rax
movq _COM8_BFILT@GOTPCREL(%rip), %rcx
movq (%rcx), %rdx
cmpl %ebx, (%rax)
jne LBB0_3
## %bb.2:
notq %rdx
andq -32(%rbp), %rdx
jmp LBB0_4
LBB0_3:
orq -32(%rbp), %rdx
LBB0_4:
movq %rdx, -32(%rbp)
movl (%r15), %esi
movq %r14, %rdi
callq _ov965x_write
LBB0_5:
movq _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPCREL(%rip), %rcx
xorl %eax, %eax
cmpl %ebx, (%rcx)
je LBB0_15
## %bb.6:
xorl %edi, %edi
cmpq $0, (%r14)
sete %dil
callq _WARN_ON
testq %rax, %rax
je LBB0_8
## %bb.7:
movq _EINVAL@GOTPCREL(%rip), %rcx
xorl %eax, %eax
subl (%rcx), %eax
jmp LBB0_15
LBB0_8:
movq _V4L2_CID_POWER_LINE_FREQUENCY_50HZ@GOTPCREL(%rip), %rax
cmpl %ebx, (%rax)
movl $100, %eax
movl $120, %ecx
cmoveq %rax, %rcx
movq (%r14), %rax
movq 8(%r14), %rdx
movq (%rax), %rdi
imulq (%rdx), %rdi
movq 8(%rax), %rsi
imulq $1000, %rdi, %rax ## imm = 0x3E8
movq %rax, %rdx
orq %rsi, %rdx
shrq $32, %rdx
je LBB0_9
## %bb.10:
xorl %edx, %edx
divq %rsi
jmp LBB0_11
LBB0_9:
## kill: def $eax killed $eax killed $rax
xorl %edx, %edx
divl %esi
## kill: def $eax killed $eax def $rax
LBB0_11:
movq %rax, %rdx
shrq $32, %rdx
je LBB0_12
## %bb.13:
xorl %edx, %edx
divq %rcx
jmp LBB0_14
LBB0_12:
## kill: def $eax killed $eax killed $rax
xorl %edx, %edx
divl %ecx
## kill: def $eax killed $eax def $rax
LBB0_14:
addq $500, %rax ## imm = 0x1F4
shrq $3, %rax
movabsq $2361183241434822607, %rcx ## imm = 0x20C49BA5E353F7CF
mulq %rcx
shrq $4, %rdx
movq _REG_MBD@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq %r14, %rdi
callq _ov965x_write
LBB0_15:
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _REG_COM8,4,2 ## @REG_COM8
.comm _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED,4,2 ## @V4L2_CID_POWER_LINE_FREQUENCY_DISABLED
.comm _COM8_BFILT,8,3 ## @COM8_BFILT
.comm _EINVAL,4,2 ## @EINVAL
.comm _V4L2_CID_POWER_LINE_FREQUENCY_50HZ,4,2 ## @V4L2_CID_POWER_LINE_FREQUENCY_50HZ
.comm _REG_MBD,4,2 ## @REG_MBD
.no_dead_strip _ov965x_set_banding_filter
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function ov965x_set_banding_filter
_ov965x_set_banding_filter: ; @ov965x_set_banding_filter
.cfi_startproc
; %bb.0:
sub sp, sp, #64
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x20, x1
mov x19, x0
Lloh0:
adrp x21, _REG_COM8@GOTPAGE
Lloh1:
ldr x21, [x21, _REG_COM8@GOTPAGEOFF]
ldr w1, [x21]
add x2, sp, #8
bl _ov965x_read
Lloh2:
adrp x22, _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPAGE
Lloh3:
ldr x22, [x22, _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED@GOTPAGEOFF]
cbnz w0, LBB0_5
; %bb.1:
ldr w9, [x22]
Lloh4:
adrp x8, _COM8_BFILT@GOTPAGE
Lloh5:
ldr x8, [x8, _COM8_BFILT@GOTPAGEOFF]
Lloh6:
ldr x8, [x8]
cmp w9, w20
b.ne LBB0_3
; %bb.2:
ldr x9, [sp, #8]
bic x2, x9, x8
b LBB0_4
LBB0_3:
ldr x9, [sp, #8]
orr x2, x9, x8
LBB0_4:
str x2, [sp, #8]
ldr w1, [x21]
mov x0, x19
bl _ov965x_write
LBB0_5:
ldr w8, [x22]
cmp w8, w20
b.ne LBB0_7
; %bb.6:
mov w0, #0
b LBB0_10
LBB0_7:
ldr x8, [x19]
cmp x8, #0
cset w0, eq
bl _WARN_ON
cbz x0, LBB0_9
; %bb.8:
Lloh7:
adrp x8, _EINVAL@GOTPAGE
Lloh8:
ldr x8, [x8, _EINVAL@GOTPAGEOFF]
Lloh9:
ldr w8, [x8]
neg w0, w8
b LBB0_10
LBB0_9:
Lloh10:
adrp x8, _V4L2_CID_POWER_LINE_FREQUENCY_50HZ@GOTPAGE
Lloh11:
ldr x8, [x8, _V4L2_CID_POWER_LINE_FREQUENCY_50HZ@GOTPAGEOFF]
Lloh12:
ldr w8, [x8]
cmp w8, w20
mov w8, #120
mov w9, #100
csel x8, x9, x8, eq
ldp x9, x10, [x19]
ldr x10, [x10]
ldp x11, x9, [x9]
mul x10, x11, x10
mov w11, #1000
mul x10, x10, x11
udiv x9, x10, x9
udiv x8, x9, x8
add x8, x8, #500
lsr x8, x8, #3
mov x9, #63439
movk x9, #58195, lsl #16
movk x9, #39845, lsl #32
movk x9, #8388, lsl #48
umulh x8, x8, x9
lsr x2, x8, #4
Lloh13:
adrp x8, _REG_MBD@GOTPAGE
Lloh14:
ldr x8, [x8, _REG_MBD@GOTPAGEOFF]
Lloh15:
ldr w1, [x8]
mov x0, x19
bl _ov965x_write
LBB0_10:
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #64
ret
.loh AdrpLdrGot Lloh2, Lloh3
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6
.loh AdrpLdrGotLdr Lloh7, Lloh8, Lloh9
.loh AdrpLdrGotLdr Lloh13, Lloh14, Lloh15
.loh AdrpLdrGotLdr Lloh10, Lloh11, Lloh12
.cfi_endproc
; -- End function
.comm _REG_COM8,4,2 ; @REG_COM8
.comm _V4L2_CID_POWER_LINE_FREQUENCY_DISABLED,4,2 ; @V4L2_CID_POWER_LINE_FREQUENCY_DISABLED
.comm _COM8_BFILT,8,3 ; @COM8_BFILT
.comm _EINVAL,4,2 ; @EINVAL
.comm _V4L2_CID_POWER_LINE_FREQUENCY_50HZ,4,2 ; @V4L2_CID_POWER_LINE_FREQUENCY_50HZ
.comm _REG_MBD,4,2 ; @REG_MBD
.no_dead_strip _ov965x_set_banding_filter
.subsections_via_symbols
| AnghaBench/linux/drivers/media/i2c/extr_ov9650.c_ov965x_set_banding_filter.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function new_skb
_new_skb: ## @new_skb
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq _MAX_HEADER@GOTPCREL(%rip), %r14
addq (%r14), %rdi
movq _GFP_ATOMIC@GOTPCREL(%rip), %rax
movl (%rax), %esi
callq _alloc_skb
movq %rax, %rbx
testq %rax, %rax
je LBB0_2
## %bb.1:
movq (%r14), %rsi
movq %rbx, %rdi
callq _skb_reserve
movq %rbx, %rdi
callq _skb_reset_mac_header
movq %rbx, %rdi
callq _skb_reset_network_header
movq _ETH_P_AOE@GOTPCREL(%rip), %rax
movl (%rax), %edi
callq ___constant_htons
movl %eax, (%rbx)
movq %rbx, %rdi
callq _skb_checksum_none_assert
LBB0_2:
movq %rbx, %rax
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _MAX_HEADER,8,3 ## @MAX_HEADER
.comm _GFP_ATOMIC,4,2 ## @GFP_ATOMIC
.comm _ETH_P_AOE,4,2 ## @ETH_P_AOE
.no_dead_strip _new_skb
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function new_skb
_new_skb: ; @new_skb
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
Lloh0:
adrp x20, _MAX_HEADER@GOTPAGE
Lloh1:
ldr x20, [x20, _MAX_HEADER@GOTPAGEOFF]
ldr x8, [x20]
add x0, x8, x0
Lloh2:
adrp x8, _GFP_ATOMIC@GOTPAGE
Lloh3:
ldr x8, [x8, _GFP_ATOMIC@GOTPAGEOFF]
Lloh4:
ldr w1, [x8]
bl _alloc_skb
mov x19, x0
cbz x0, LBB0_2
; %bb.1:
ldr x1, [x20]
mov x0, x19
bl _skb_reserve
mov x0, x19
bl _skb_reset_mac_header
mov x0, x19
bl _skb_reset_network_header
Lloh5:
adrp x8, _ETH_P_AOE@GOTPAGE
Lloh6:
ldr x8, [x8, _ETH_P_AOE@GOTPAGEOFF]
Lloh7:
ldr w0, [x8]
bl ___constant_htons
str w0, [x19]
mov x0, x19
bl _skb_checksum_none_assert
LBB0_2:
mov x0, x19
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.cfi_endproc
; -- End function
.comm _MAX_HEADER,8,3 ; @MAX_HEADER
.comm _GFP_ATOMIC,4,2 ; @GFP_ATOMIC
.comm _ETH_P_AOE,4,2 ; @ETH_P_AOE
.no_dead_strip _new_skb
.subsections_via_symbols
| AnghaBench/linux/drivers/block/aoe/extr_aoecmd.c_new_skb.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function ath9k_hif_usb_dealloc_rx_urbs
_ath9k_hif_usb_dealloc_rx_urbs: ## @ath9k_hif_usb_dealloc_rx_urbs
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
popq %rbp
jmp _usb_kill_anchored_urbs ## TAILCALL
.cfi_endproc
## -- End function
.no_dead_strip _ath9k_hif_usb_dealloc_rx_urbs
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function ath9k_hif_usb_dealloc_rx_urbs
_ath9k_hif_usb_dealloc_rx_urbs: ; @ath9k_hif_usb_dealloc_rx_urbs
.cfi_startproc
; %bb.0:
b _usb_kill_anchored_urbs
.cfi_endproc
; -- End function
.no_dead_strip _ath9k_hif_usb_dealloc_rx_urbs
.subsections_via_symbols
| AnghaBench/linux/drivers/net/wireless/ath/ath9k/extr_hif_usb.c_ath9k_hif_usb_dealloc_rx_urbs.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _AAS_IndexFromModel ## -- Begin function AAS_IndexFromModel
.p2align 4, 0x90
_AAS_IndexFromModel: ## @AAS_IndexFromModel
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq _aasworld@GOTPCREL(%rip), %rax
movq _CS_MODELS@GOTPCREL(%rip), %rcx
movq (%rcx), %rsi
shlq $2, %rsi
addq (%rax), %rsi
movq %rdi, %rcx
movq _MAX_MODELS@GOTPCREL(%rip), %rax
movl (%rax), %edx
leaq L_.str(%rip), %rdi
popq %rbp
jmp _AAS_IndexFromString ## TAILCALL
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "IndexFromModel"
.comm _aasworld,8,3 ## @aasworld
.comm _CS_MODELS,8,3 ## @CS_MODELS
.comm _MAX_MODELS,4,2 ## @MAX_MODELS
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _AAS_IndexFromModel ; -- Begin function AAS_IndexFromModel
.p2align 2
_AAS_IndexFromModel: ; @AAS_IndexFromModel
.cfi_startproc
; %bb.0:
mov x3, x0
Lloh0:
adrp x8, _aasworld@GOTPAGE
Lloh1:
ldr x8, [x8, _aasworld@GOTPAGEOFF]
Lloh2:
adrp x9, _CS_MODELS@GOTPAGE
Lloh3:
ldr x9, [x9, _CS_MODELS@GOTPAGEOFF]
Lloh4:
ldr x8, [x8]
Lloh5:
ldr x9, [x9]
add x1, x8, x9, lsl #2
Lloh6:
adrp x8, _MAX_MODELS@GOTPAGE
Lloh7:
ldr x8, [x8, _MAX_MODELS@GOTPAGEOFF]
Lloh8:
ldr w2, [x8]
Lloh9:
adrp x0, l_.str@PAGE
Lloh10:
add x0, x0, l_.str@PAGEOFF
b _AAS_IndexFromString
.loh AdrpAdd Lloh9, Lloh10
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh4
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "IndexFromModel"
.comm _aasworld,8,3 ; @aasworld
.comm _CS_MODELS,8,3 ; @CS_MODELS
.comm _MAX_MODELS,4,2 ; @MAX_MODELS
.subsections_via_symbols
| AnghaBench/Quake-III-Arena/code/botlib/extr_be_aas_main.c_AAS_IndexFromModel.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function RcTree_Encode
_RcTree_Encode: ## @RcTree_Encode
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
testl %edx, %edx
je LBB0_3
## %bb.1:
movl %edx, %r13d
movq %rsi, %r12
movq %rdi, %r15
decl %r13d
movl $1, %eax
movl %ecx, -44(%rbp) ## 4-byte Spill
.p2align 4, 0x90
LBB0_2: ## =>This Inner Loop Header: Depth=1
xorl %ebx, %ebx
btl %r13d, %ecx
setb %bl
movslq %eax, %r14
leaq (%r12,%r14,4), %rsi
movq %r15, %rdi
movl %ebx, %edx
callq _RangeEnc_EncodeBit
movl -44(%rbp), %ecx ## 4-byte Reload
leal (%rbx,%r14,2), %eax
addl $-1, %r13d
jb LBB0_2
LBB0_3:
addq $8, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.no_dead_strip _RcTree_Encode
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function RcTree_Encode
_RcTree_Encode: ; @RcTree_Encode
.cfi_startproc
; %bb.0:
stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
cbz w2, LBB0_3
; %bb.1:
mov x19, x3
mov x20, x1
mov x21, x0
sub w22, w2, #1
mov w23, #1
LBB0_2: ; =>This Inner Loop Header: Depth=1
lsr w24, w19, w22
and w2, w24, #0x1
add x1, x20, w23, sxtw #2
mov x0, x21
bl _RangeEnc_EncodeBit
bfi w24, w23, #1, #31
sub w22, w22, #1
mov x23, x24
cmn w22, #1
b.ne LBB0_2
LBB0_3:
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
ldp x24, x23, [sp], #64 ; 16-byte Folded Reload
ret
.cfi_endproc
; -- End function
.no_dead_strip _RcTree_Encode
.subsections_via_symbols
| AnghaBench/sumatrapdf/ext/lzma/C/extr_LzmaEnc.c_RcTree_Encode.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function pontis_gpio_data_put
_pontis_gpio_data_put: ## @pontis_gpio_data_put
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rsi, %r14
callq _snd_kcontrol_chip
movq %rax, %rbx
movq %rax, %rdi
callq _mutex_lock
movl 8(%rbx), %esi
movq %rbx, %rdi
callq _snd_ice1712_gpio_set_dir
movl 4(%rbx), %esi
movq %rbx, %rdi
callq _snd_ice1712_gpio_set_mask
movq %rbx, %rdi
callq _snd_ice1712_gpio_read
movzwl %ax, %eax
movq (%r14), %rcx
movzwl (%rcx), %esi
xorl %r14d, %r14d
cmpl %esi, %eax
je LBB0_2
## %bb.1:
movq %rbx, %rdi
callq _snd_ice1712_gpio_write
movl $1, %r14d
LBB0_2:
movq %rbx, %rdi
callq _mutex_unlock
movl %r14d, %eax
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.no_dead_strip _pontis_gpio_data_put
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function pontis_gpio_data_put
_pontis_gpio_data_put: ; @pontis_gpio_data_put
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x20, x1
bl _snd_kcontrol_chip
mov x19, x0
bl _mutex_lock
ldr w1, [x19, #8]
mov x0, x19
bl _snd_ice1712_gpio_set_dir
ldr w1, [x19, #4]
mov x0, x19
bl _snd_ice1712_gpio_set_mask
mov x0, x19
bl _snd_ice1712_gpio_read
ldr x8, [x20]
ldrh w1, [x8]
cmp w1, w0, uxth
b.ne LBB0_2
; %bb.1:
mov w20, #0
b LBB0_3
LBB0_2:
mov x0, x19
bl _snd_ice1712_gpio_write
mov w20, #1
LBB0_3:
mov x0, x19
bl _mutex_unlock
mov x0, x20
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.cfi_endproc
; -- End function
.no_dead_strip _pontis_gpio_data_put
.subsections_via_symbols
| AnghaBench/linux/sound/pci/ice1712/extr_pontis.c_pontis_gpio_data_put.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__const
.globl _nsglobe ## @nsglobe
.p2align 2
_nsglobe:
.long 132 ## 0x84
.long 135 ## 0x87
.long 4 ## 0x4
.asciz "\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\024.=\377\036Qn\3773x\236\377G\211\253\377\\\301\370\377\\\301\370\377\201\324\367\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377o\317\377\377Z\277\367\377Z\277\367\377G\211\253\3773x\236\377\036Qn\377\017$0\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\031Fb\377G\211\253\377|\326\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377Z\277\367\377G\211\253\377\036Qn\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377A\202\244\377\203\316\353\377\216\336\377\377\213\336\377\377\213\336\377\377\204\323\364\377\216\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\201\324\367\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377>\211\263\377\025<S\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377\201\313\347\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377Z\277\367\3773x\236\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\201\313\347\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377D\271\376\377\035Wz\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\203\316\353\377\231\344\376\377\231\344\376\377\227\343\377\377\227\343\377\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377t\322\377\377v\323\377\377l\316\377\377l\316\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377\\\301\370\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3773x\236\377\204\323\364\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\227\343\377\377\222\341\377\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377k\315\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\203\316\353\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377N\276\377\377&p\234\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377D\266\372\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377]\306\377\377a\310\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377G\211\253\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\205\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377D\266\372\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377x\324\377\377w\323\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377J\274\377\3773x\236\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\201\313\347\377\246\354\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377Q\277\377\377J\274\377\377I\274\377\377\037\222\335\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\203\316\353\377\250\355\377\377\250\355\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377m\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377\205\332\377\377\207\333\377\377]\304\375\377]\306\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377I\274\377\377I\274\377\377D\266\372\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\241\350\377\377\250\355\377\377\255\357\377\377\250\355\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377h\314\377\377\370\374\377\377\376\377\377\377t\322\377\377X\303\377\377X\303\377\377X\303\377\377V\302\377\377Q\277\377\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\241\350\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\250\355\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377s\321\377\377v\323\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377\241\350\377\377\376\377\377\377\376\377\377\377\307\363\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\255\357\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\211\334\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377A\202\244\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\241\350\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\266\372\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\255\357\377\377\201\313\347\377G\211\253\377\036Qn\377\017$0\377\202\313\347\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377t\322\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\255\357\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377k\315\377\377\250\355\377\377w\323\377\377D\271\376\377@\267\377\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\225\343\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\231\344\376\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377o\317\377\377X\303\377\377X\303\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377]\306\377\377\231\344\376\377\334\366\377\377\376\377\377\377\376\377\377\377\263\361\377\377D\271\376\377D\271\376\377?\267\377\377<\265\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\241\350\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\377Q\277\377\377T\301\376\377V\302\377\377\216\336\377\377\307\363\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\374\376\377\377\207\333\377\377D\271\376\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\231\344\376\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\177\330\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\223\342\377\377\334\366\377\377\263\361\377\377\231\344\376\377v\323\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377\216\336\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\207\333\377\377\200\327\376\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377]\304\375\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\3778\263\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\203\316\353\377\246\354\377\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\212\335\377\377\204\332\377\377\204\332\377\377\177\330\377\377\204\332\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\253\356\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\334\366\377\377\263\361\377\377\222\341\377\377l\316\377\377k\315\377\377g\313\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377:\262\373\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377x\324\377\377|\326\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\267\362\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377!\216\323\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377\307\363\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\216\336\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3778\263\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\234\346\376\377\246\354\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377\234\346\376\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377a\310\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\313\347\377\234\346\376\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377w\323\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3771\257\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\241\350\377\377\237\347\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377\307\363\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\225\343\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\225\343\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\200\330\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377\221\340\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\250\355\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\234\346\376\377\241\350\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\253\356\377\377G\211\253\377\035Wz\377G\211\253\377\202\313\347\377\246\354\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\334\366\377\377\204\332\377\377D\266\372\377@\267\377\377@\267\377\377=\265\376\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\216\336\377\377D\266\372\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\201\313\347\377\231\344\376\377\231\344\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\255\357\377\377\250\355\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377\205\332\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\221\340\377\377G\272\377\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\377*\253\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\243\351\377\377\250\355\377\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\250\355\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\250\355\377\377\243\351\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377t\322\377\377t\322\377\377\227\343\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\241\350\377\377H\273\377\3778\263\376\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\243\351\377\377\246\354\377\377|\326\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\225\343\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\212\335\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377\205\332\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377l\316\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377\030\230\355\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\250\355\377\377\202\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\246\354\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\352\370\377\377_\307\377\3775\262\377\3772\260\377\3772\260\377\377/\256\377\377/\256\377\377,\255\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\222\341\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377\237\347\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\377\377\377\243\351\377\377?\267\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377\032\225\347\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377\207\333\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\001\002\002\377G\211\253\377\221\340\377\377\221\340\377\377\221\340\377\377\221\340\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\225\343\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\361\372\377\377|\326\377\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\b\024\032\377\204\323\364\377\221\340\377\377\221\340\377\377\231\344\376\377\221\340\377\377\222\341\377\377\227\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\233\345\376\377\241\350\377\377\236\346\377\377\241\350\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377\222\341\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\243\351\377\377H\273\377\377<\265\376\377=\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377\221\340\377\377\217\337\377\377\223\342\377\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\227\343\377\377\222\341\377\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\227\343\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\227\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377\246\354\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377a\310\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377z\325\377\377\217\337\377\377\217\337\377\377\204\323\364\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\227\343\377\377\227\343\377\377\227\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377~\327\377\377\200\330\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\234\346\376\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377|\326\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\211\334\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377\222\341\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3777\262\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377\211\334\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377J\274\377\377@\267\377\377<\265\376\377:\263\374\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\207\333\377\377\207\333\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377\246\354\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\225\343\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\324\367\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\225\343\377\377\222\341\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377e\312\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\216\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377z\325\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\255\357\377\377;\264\376\3775\262\377\3778\263\376\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377\234\346\376\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377?\267\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\201\324\367\377\200\330\377\377~\327\377\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377o\317\377\377e\312\377\377k\315\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\231\344\376\377\263\361\377\377\361\372\377\377\376\377\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\204\332\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\200\327\376\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377a\310\377\377\231\344\376\377\307\363\377\377\376\377\377\377\370\374\377\377\352\370\377\377\374\376\377\377\307\363\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377|\326\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\200\330\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\212\335\377\377\207\333\377\377\212\335\377\377\212\335\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377v\323\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\250\355\377\377k\315\377\377t\322\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377v\323\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377B\270\376\377t\322\377\377\241\350\377\377\334\366\377\377\334\366\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\213\336\377\377\207\333\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\212\335\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\234\346\376\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\263\361\377\377y\325\377\377]\306\377\377V\302\377\377X\303\377\377V\302\377\377\255\357\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377:\263\374\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377A\202\244\377\036Qn\377\036Qn\377\025<S\377\024.=\377\204\323\364\377\213\336\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377\307\363\377\377\376\377\377\377\376\377\377\377\307\363\377\377\213\336\377\377_\307\377\377_\307\377\377]\304\375\377]\304\375\377V\302\377\377X\303\377\377V\302\377\377]\304\375\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\200\327\376\377D\271\376\377H\273\377\377D\266\372\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377\200\330\377\377~\327\377\377\204\332\377\377~\327\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\211\334\377\377\211\334\377\377\211\334\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377g\313\377\377k\315\377\377e\312\377\377e\312\377\377v\323\377\377\234\346\376\377e\312\377\377a\310\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377Q\277\377\377\207\333\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377\204\332\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\202\313\347\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377y\325\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377g\313\377\377e\312\377\377e\312\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\216\336\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377v\323\377\377v\323\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\205\332\377\377\205\332\377\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377e\312\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377J\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377D\271\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377p\320\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377k\315\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377Q\277\377\377Q\277\377\377\250\355\377\377\374\376\377\377\374\376\377\377\227\343\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377\352\370\377\377\374\376\377\377Q\277\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377e\312\377\377c\311\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377p\320\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\266\372\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377o\317\377\377k\315\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377x\324\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377f\313\377\377f\313\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377k\315\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377G\211\253\377\004\n\r\377\0245H\377\035Wz\377A\202\244\377\\\301\370\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377f\313\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\022\231\364\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\225\347\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377r\321\377\377v\323\377\377r\321\377\377r\321\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\021\233\371\377\t\033'\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377s\321\377\377s\321\377\377r\321\377\377v\323\377\377s\321\377\377s\321\377\377r\321\377\377r\321\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377s\321\377\377s\321\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377r\321\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\377;\264\376\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377I\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377s\321\377\377m\316\377\377r\321\377\377m\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377=\265\376\377=\265\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377m\316\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\243\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377]\306\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377l\316\377\377f\313\377\377l\316\377\377h\314\377\377f\313\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377<\265\376\377;\264\376\377;\264\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377h\314\377\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377k\315\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377+\254\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\030\230\355\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377!\216\323\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377G\211\253\377\035Wz\377\b\027 \3773x\236\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377!\216\323\377\004\n\r\377\000\000\000\377\b\027 \377\037\222\335\377\021\237\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377_\307\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377D\271\376\377@\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\036k\234\377\0245H\377\030\230\355\377\027\242\377\377\021\237\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377X\303\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377X\303\377\377X\303\377\377X\303\377\377X\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\\\301\370\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377:\263\374\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377\027[\207\377\037\222\335\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377V\302\377\377X\303\377\377X\303\377\377V\302\377\377X\303\377\377W\303\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377T\301\376\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377\032e\225\377\b\024\032\377\000\000\000\377\025<S\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\037\222\335\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377V\302\377\377V\302\377\377V\302\377\377X\303\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377>\211\263\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377\027[\207\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377R\300\376\377R\300\376\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377B\270\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377\037\222\335\377\036Qn\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377V\302\377\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\3771\210\275\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\030\230\355\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377D\266\372\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\266\372\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3772\260\377\377/\256\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\032e\225\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377T\301\376\377J\274\377\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377\036Qn\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377C\267\373\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3775\262\377\3777\262\377\3777\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\036k\234\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\032\225\347\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377>\211\263\377J\274\377\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377D\266\372\377\006\016\024\377\035Wz\377D\266\372\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377L\275\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\036k\234\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377I\274\377\377Q\277\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377V\302\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377G\272\377\377G\272\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\376\377&p\234\3771\210\275\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\0245H\377\003\004\006\377\031Fb\377!\216\323\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\022\231\364\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\036Qn\377>\211\263\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377G\272\377\377L\275\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3771\210\275\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\0245H\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377\037\222\335\377\030\230\355\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\035Wz\377D\266\372\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\377\037\222\335\377&p\234\377\036Qn\377\024.=\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\021\233\371\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377D\266\372\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377G\272\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&\212\311\377*\253\377\377/\256\377\377(\252\376\377+\254\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377I\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377G\272\377\377G\272\377\377G\272\377\377B\270\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377?\267\377\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\017\236\377\377\037\222\335\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377D\266\372\377\000\000\000\377\t\033'\377\017$0\377\031Fb\377\036Qn\377&p\234\377&p\234\3773x\236\377&\212\311\377&\212\311\377&\212\311\377D\266\372\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377\037\222\335\377&\212\311\377&p\234\377&p\234\377\027[\207\377\031Fb\377\031Fb\377\017$0\377\017$0\377\b\027 \377\000\000\000\377\035Wz\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3771\257\377\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\031Fb\377\036k\234\377(\252\376\377*\253\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377%\250\376\377%\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377\035Wz\377\017$0\377\000\000\000\377:\262\373\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377J\274\377\377J\274\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377=\265\376\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377:\263\374\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\377\017$0\377\000\000\000\377\001\002\002\377\000\000\000\377\b\027 \377\025<S\377\036k\234\377\037\222\335\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\3778\263\376\377D\271\376\377:\262\373\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377H\273\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\377\036k\234\377\027[\207\3771\210\275\377(\252\376\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377%\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\022\231\364\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377D\271\376\3773x\236\377\b\027 \3771\210\275\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377D\271\376\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377<\265\376\3778\263\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\3773x\236\377\017$0\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\024.=\377\000\000\000\377\000\000\000\377\b\024\032\3778\263\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\017$0\377\031Fb\377:\262\373\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3771\210\275\377@\267\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377&\212\311\3773x\236\377&p\234\377&p\234\377\035Wz\377\031Fb\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377@\267\377\3773x\236\377\035Wz\377&p\234\377&p\234\377&\212\311\377&\212\311\377\032\225\347\377<\265\376\377:\263\374\3775\262\377\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377!\216\323\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377:\262\373\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377B\270\376\377?\267\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\021\233\371\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377:\262\373\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377?\267\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377?\267\377\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036k\234\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\3778\263\376\377<\265\376\377=\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377!\216\323\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\032e\225\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\377;\264\376\377/\256\377\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\3771\257\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377%\250\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377&\212\311\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3778\263\376\3777\262\377\3775\262\377\3775\262\377\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\3775\262\377\3772\260\377\377\035Wz\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\3771\257\376\3777\262\377\3771\257\377\3777\262\377\3775\262\377\3772\260\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3775\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377\036Qn\377\037\222\335\377/\256\377\3771\257\377\377/\256\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377/\256\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377/\256\377\377/\256\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\030\230\355\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377/\256\377\377(\252\376\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377!\247\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377&\212\311\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377!\216\323\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\216\323\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\022\231\364\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\036Qn\377'\252\376\377(\252\376\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\025<S\377\003\004\006\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\030\230\355\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\006\016\024\377\037\222\335\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\030\230\355\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\032\225\347\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\016\235\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\031Fb\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377!\247\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\030\230\355\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\027[\207\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\027[\207\377\032\225\347\377#\250\376\377\037\246\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\021\233\371\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\021\233\371\377\036k\234\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\027[\207\377!\216\323\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\032\243\376\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\030\230\355\377\036k\234\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\025<S\377\032e\225\377\037\222\335\377\032\243\376\377\033\244\376\377\033\244\376\377\032\243\376\377\016\234\375\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\022\231\364\377\036k\234\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\025<S\377\035Wz\377\036k\234\377&\212\311\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\027\242\377\377\021\237\377\377\027\242\377\377!\216\323\377&\212\311\377\036k\234\377\032e\225\377\031Fb\377\024.=\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000"
.space 3
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__const
.globl _nsglobe ; @nsglobe
.p2align 2
_nsglobe:
.long 132 ; 0x84
.long 135 ; 0x87
.long 4 ; 0x4
.asciz "\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\024.=\377\036Qn\3773x\236\377G\211\253\377\\\301\370\377\\\301\370\377\201\324\367\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377o\317\377\377Z\277\367\377Z\277\367\377G\211\253\3773x\236\377\036Qn\377\017$0\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\031Fb\377G\211\253\377|\326\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377Z\277\367\377G\211\253\377\036Qn\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377A\202\244\377\203\316\353\377\216\336\377\377\213\336\377\377\213\336\377\377\204\323\364\377\216\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\201\324\367\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377>\211\263\377\025<S\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377\201\313\347\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377Z\277\367\3773x\236\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\201\313\347\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377D\271\376\377\035Wz\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\203\316\353\377\231\344\376\377\231\344\376\377\227\343\377\377\227\343\377\377\227\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377t\322\377\377v\323\377\377l\316\377\377l\316\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377\\\301\370\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3773x\236\377\204\323\364\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\227\343\377\377\222\341\377\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377k\315\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\3773x\236\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\203\316\353\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377N\276\377\377&p\234\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377D\266\372\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377]\306\377\377a\310\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377G\211\253\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\205\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377D\266\372\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377x\324\377\377w\323\377\377v\323\377\377v\323\377\377t\322\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377]\304\375\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377J\274\377\3773x\236\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\201\313\347\377\246\354\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377X\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377Q\277\377\377J\274\377\377I\274\377\377\037\222\335\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\203\316\353\377\250\355\377\377\250\355\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377p\320\377\377p\320\377\377o\317\377\377m\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377\205\332\377\377\207\333\377\377]\304\375\377]\306\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377I\274\377\377I\274\377\377D\266\372\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\241\350\377\377\250\355\377\377\255\357\377\377\250\355\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377h\314\377\377\370\374\377\377\376\377\377\377t\322\377\377X\303\377\377X\303\377\377X\303\377\377V\302\377\377Q\277\377\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\241\350\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\250\355\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377v\323\377\377s\321\377\377v\323\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377\241\350\377\377\376\377\377\377\376\377\377\377\307\363\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\255\357\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377v\323\377\377v\323\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\211\334\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377A\202\244\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377o\317\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\241\350\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377]\304\375\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\266\372\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\255\357\377\377\201\313\347\377G\211\253\377\036Qn\377\017$0\377\202\313\347\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377t\322\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\255\357\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377k\315\377\377\250\355\377\377w\323\377\377D\271\376\377@\267\377\377B\270\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\222\341\377\377\225\343\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\204\332\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377s\321\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\231\344\376\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377o\317\377\377X\303\377\377X\303\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377]\306\377\377\231\344\376\377\334\366\377\377\376\377\377\377\376\377\377\377\263\361\377\377D\271\376\377D\271\376\377?\267\377\377<\265\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\241\350\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377v\323\377\377p\320\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377e\312\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\377Q\277\377\377T\301\376\377V\302\377\377\216\336\377\377\307\363\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\374\376\377\377\207\333\377\377D\271\376\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\231\344\376\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\177\330\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\223\342\377\377\334\366\377\377\263\361\377\377\231\344\376\377v\323\377\377p\320\377\377p\320\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377\216\336\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\207\333\377\377\200\327\376\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377]\304\375\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\3778\263\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\203\316\353\377\246\354\377\377\246\354\377\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\212\335\377\377\204\332\377\377\204\332\377\377\177\330\377\377\204\332\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377\253\356\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\334\366\377\377\263\361\377\377\222\341\377\377l\316\377\377k\315\377\377g\313\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377:\262\373\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377x\324\377\377|\326\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\267\362\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377!\216\323\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\267\362\377\377\267\362\377\377\267\362\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\243\351\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\177\330\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377\307\363\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\216\336\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3778\263\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\234\346\376\377\246\354\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377\234\346\376\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377a\310\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\313\347\377\234\346\376\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\246\354\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377w\323\377\377w\323\377\377w\323\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3771\257\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\241\350\377\377\237\347\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\255\357\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\263\361\377\377\263\361\377\377\263\361\377\377\263\361\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\205\332\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377\307\363\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\225\343\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\253\356\377\377\255\357\377\377\255\357\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\225\343\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\200\330\377\377\205\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377\221\340\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\250\355\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\234\346\376\377\241\350\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\253\356\377\377\253\356\377\377G\211\253\377\035Wz\377G\211\253\377\202\313\347\377\246\354\377\377\260\360\377\377\260\360\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377\200\330\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\334\366\377\377\204\332\377\377D\266\372\377@\267\377\377@\267\377\377=\265\376\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\250\355\377\377\253\356\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\250\355\377\377\255\357\377\377\255\357\377\377\255\357\377\377\255\357\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\241\350\377\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377w\323\377\377v\323\377\377t\322\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\216\336\377\377D\266\372\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\201\313\347\377\231\344\376\377\231\344\376\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\241\350\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\250\355\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\255\357\377\377\250\355\377\377\250\355\377\377\255\357\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\237\347\377\377\234\346\376\377\237\347\377\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377\205\332\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\221\340\377\377G\272\377\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\377*\253\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\246\354\377\377\243\351\377\377\250\355\377\377\234\346\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\250\355\377\377\250\355\377\377\250\355\377\377\250\355\377\377\246\354\377\377\246\354\377\377\250\355\377\377\243\351\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\200\330\377\377\200\330\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377w\323\377\377v\323\377\377t\322\377\377t\322\377\377\227\343\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\241\350\377\377H\273\377\3778\263\376\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\203\316\353\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\234\346\376\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\243\351\377\377\246\354\377\377|\326\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\246\354\377\377\241\350\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\225\343\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\212\335\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377w\323\377\377\205\332\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377l\316\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377\030\230\355\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377\250\355\377\377\202\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\246\354\377\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\204\332\377\377\207\333\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377w\323\377\377\267\362\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\352\370\377\377_\307\377\3775\262\377\3772\260\377\3772\260\377\377/\256\377\377/\256\377\377,\255\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\222\341\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\237\347\377\377\241\350\377\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\246\354\377\377\243\351\377\377\246\354\377\377\246\354\377\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\241\350\377\377\236\346\377\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\212\335\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377x\324\377\377\237\347\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\377\377\377\243\351\377\377?\267\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377\032\225\347\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\237\347\377\377\237\347\377\377\234\346\376\377\241\350\377\377\243\351\377\377\243\351\377\377A\202\244\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\243\351\377\377\243\351\377\377\243\351\377\377\241\350\377\377\243\351\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\236\346\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\212\335\377\377\212\335\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377\207\333\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377X\303\377\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\001\002\002\377G\211\253\377\221\340\377\377\221\340\377\377\221\340\377\377\221\340\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\225\343\377\377\376\377\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\361\372\377\377|\326\377\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\b\024\032\377\204\323\364\377\221\340\377\377\221\340\377\377\231\344\376\377\221\340\377\377\222\341\377\377\227\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\233\345\376\377\241\350\377\377\236\346\377\377\241\350\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\201\313\347\377\241\350\377\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\241\350\377\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\222\341\377\377\223\342\377\377\222\341\377\377\223\342\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377\222\341\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\376\376\377\377\243\351\377\377H\273\377\377<\265\376\377=\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377\221\340\377\377\217\337\377\377\223\342\377\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\227\343\377\377\222\341\377\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\234\346\376\377\241\350\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\227\343\377\377\234\346\376\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\227\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377\200\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377\246\354\377\377\352\370\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377a\310\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377z\325\377\377\217\337\377\377\217\337\377\377\204\323\364\377\221\340\377\377\221\340\377\377\222\341\377\377\222\341\377\377\222\341\377\377\227\343\377\377\227\343\377\377\227\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\234\346\376\377\234\346\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\241\350\377\377\241\350\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\231\344\376\377\227\343\377\377\231\344\376\377\231\344\376\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377~\327\377\377~\327\377\377\200\330\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377v\323\377\377v\323\377\377\234\346\376\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377|\326\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\237\347\377\377\237\347\377\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\234\346\376\377\231\344\376\377\234\346\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\211\334\377\377\215\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377\222\341\377\377\334\366\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\307\363\377\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3777\262\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\225\343\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377\211\334\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377J\274\377\377@\267\377\377<\265\376\377:\263\374\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\207\333\377\377\207\333\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377\246\354\377\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\225\343\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\201\324\367\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\225\343\377\377\222\341\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\227\343\377\377\227\343\377\377\225\343\377\377\231\344\376\377\225\343\377\377\225\343\377\377\225\343\377\377\225\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\216\336\377\377\216\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\225\343\377\377\225\343\377\377\225\343\377\377\222\341\377\377\227\343\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377e\312\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\216\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377z\325\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\255\357\377\377;\264\376\3775\262\377\3778\263\376\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\223\342\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377e\312\377\377\234\346\376\377\374\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377?\267\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\201\324\367\377\200\330\377\377~\327\377\377~\327\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\211\334\377\377\213\336\377\377\211\334\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\223\342\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\222\341\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\207\333\377\377\204\332\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377o\317\377\377e\312\377\377k\315\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\231\344\376\377\263\361\377\377\361\372\377\377\376\377\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377\204\332\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\200\327\376\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\213\336\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\222\341\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\207\333\377\377\211\334\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377~\327\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\361\372\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377\307\363\377\377H\273\377\377D\271\376\377D\271\376\377a\310\377\377\231\344\376\377\307\363\377\377\376\377\377\377\370\374\377\377\352\370\377\377\374\376\377\377\307\363\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377|\326\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\205\332\377\377\200\330\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\212\335\377\377\207\333\377\377\212\335\377\377\212\335\377\377\212\335\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\216\336\377\377\215\336\377\377\215\336\377\377\215\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377v\323\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377\250\355\377\377k\315\377\377t\322\377\377\376\376\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\376\377\377v\323\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377B\270\376\377t\322\377\377\241\350\377\377\334\366\377\377\334\366\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\213\336\377\377\207\333\377\377\211\334\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\213\336\377\377\213\336\377\377\213\336\377\377\213\336\377\377\211\334\377\377\211\334\377\377\213\336\377\377\211\334\377\377\211\334\377\377\212\335\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377\234\346\376\377\376\377\377\377\376\377\377\377\376\377\377\377\374\376\377\377\370\374\377\377\263\361\377\377y\325\377\377]\306\377\377V\302\377\377X\303\377\377V\302\377\377\255\357\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\334\366\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377:\263\374\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\211\334\377\377\211\334\377\377\211\334\377\377A\202\244\377\036Qn\377\036Qn\377\025<S\377\024.=\377\204\323\364\377\213\336\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\211\334\377\377\207\333\377\377\207\333\377\377\204\332\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\207\333\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377t\322\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377\307\363\377\377\376\377\377\377\376\377\377\377\307\363\377\377\213\336\377\377_\307\377\377_\307\377\377]\304\375\377]\304\375\377V\302\377\377X\303\377\377V\302\377\377]\304\375\377\361\372\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\200\327\376\377D\271\376\377H\273\377\377D\266\372\377D\271\376\377D\271\376\377@\267\377\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377\200\330\377\377~\327\377\377\204\332\377\377~\327\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377\211\334\377\377\211\334\377\377\211\334\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377h\314\377\377g\313\377\377k\315\377\377e\312\377\377e\312\377\377v\323\377\377\234\346\376\377e\312\377\377a\310\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377X\303\377\377X\303\377\377V\302\377\377V\302\377\377Q\277\377\377\207\333\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\352\370\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377\204\332\377\377~\327\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\207\333\377\377\207\333\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\202\313\347\377\205\332\377\377\205\332\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\204\332\377\377\177\330\377\377~\327\377\377\204\332\377\377\177\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377y\325\377\377y\325\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377g\313\377\377e\312\377\377e\312\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377\307\363\377\377\376\377\377\377\376\377\377\377\376\377\377\377\376\377\377\377\216\336\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377v\323\377\377v\323\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377\204\332\377\377\207\333\377\377\204\332\377\377\207\333\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377\205\332\377\377\205\332\377\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\204\332\377\377\204\332\377\377\204\332\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377e\312\377\377\376\377\377\377\376\377\377\377\376\377\377\377\370\374\377\377J\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377D\271\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377p\320\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377\177\330\377\377\177\330\377\377~\327\377\377\204\332\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377G\211\253\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377\205\332\377\377\205\332\377\377\200\330\377\377\207\333\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377\177\330\377\377\204\332\377\377\177\330\377\377\177\330\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377y\325\377\377x\324\377\377x\324\377\377x\324\377\377t\322\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377k\315\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377a\310\377\377a\310\377\377a\310\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377X\303\377\377V\302\377\377V\302\377\377V\302\377\377Q\277\377\377Q\277\377\377Q\277\377\377Q\277\377\377\250\355\377\377\374\376\377\377\374\376\377\377\227\343\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377|\326\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036Qn\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377x\324\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377p\320\377\377p\320\377\377o\317\377\377o\317\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377\352\370\377\377\374\376\377\377Q\277\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377\201\313\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\200\330\377\377\200\330\377\377\200\330\377\377~\327\377\377\200\330\377\377\200\330\377\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377e\312\377\377c\311\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377~\327\377\377~\327\377\377~\327\377\377~\327\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377p\320\377\377l\316\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377V\302\377\377V\302\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377|\326\377\377|\326\377\377|\326\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377|\326\377\377z\325\377\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377k\315\377\377h\314\377\377k\315\377\377e\312\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377J\274\377\377N\276\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377|\326\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\266\372\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\377;\264\376\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377o\317\377\377k\315\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377v\323\377\377v\323\377\377x\324\377\377x\324\377\377x\324\377\377x\324\377\377z\325\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377z\325\377\377x\324\377\377z\325\377\377x\324\377\377x\324\377\377z\325\377\377z\325\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377l\316\377\377l\316\377\377f\313\377\377f\313\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\\\301\370\377k\315\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377G\211\253\377\004\n\r\377\0245H\377\035Wz\377A\202\244\377\\\301\370\377z\325\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377f\313\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377h\314\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\022\231\364\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377v\323\377\377z\325\377\377x\324\377\377x\324\377\377x\324\377\377v\323\377\377v\323\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377l\316\377\377f\313\377\377f\313\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377W\303\377\377V\302\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377=\265\376\377=\265\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\225\347\377\032\225\347\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377Z\277\367\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377v\323\377\377v\323\377\377v\323\377\377r\321\377\377v\323\377\377r\321\377\377r\321\377\377v\323\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\021\233\371\377\t\033'\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377t\322\377\377t\322\377\377l\316\377\377t\322\377\377t\322\377\377s\321\377\377s\321\377\377r\321\377\377v\323\377\377s\321\377\377s\321\377\377r\321\377\377r\321\377\377t\322\377\377t\322\377\377o\317\377\377o\317\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377A\202\244\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377l\316\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377s\321\377\377s\321\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377r\321\377\377t\322\377\377l\316\377\377t\322\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377l\316\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\377;\264\376\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377o\317\377\377o\317\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377t\322\377\377o\317\377\377o\317\377\377o\317\377\377m\316\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377m\316\377\377s\321\377\377m\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377I\274\377\377N\276\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377o\317\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377t\322\377\377l\316\377\377l\316\377\377o\317\377\377o\317\377\377o\317\377\377o\317\377\377s\321\377\377m\316\377\377r\321\377\377m\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377]\304\375\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377=\265\376\377=\265\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377c\311\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377k\315\377\377k\315\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377m\316\377\377k\315\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377e\312\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\032\243\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377]\306\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377l\316\377\377f\313\377\377l\316\377\377h\314\377\377f\313\377\377l\316\377\377k\315\377\377k\315\377\377k\315\377\377k\315\377\377h\314\377\377k\315\377\377k\315\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377N\276\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377<\265\376\377;\264\376\377;\264\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377c\311\377\377h\314\377\377c\311\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377c\311\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3778\263\376\3777\262\377\3777\262\377\3771\257\376\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377a\310\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377h\314\377\377e\312\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377h\314\377\377e\312\377\377e\312\377\377k\315\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377B\270\376\377?\267\377\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377+\254\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\030\230\355\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377!\216\323\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377a\310\377\377a\310\377\377c\311\377\377_\307\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377h\314\377\377e\312\377\377G\211\253\377\035Wz\377\b\027 \3773x\236\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377?\267\377\377?\267\377\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377!\216\323\377\004\n\r\377\000\000\000\377\b\027 \377\037\222\335\377\021\237\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377a\310\377\377_\307\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377c\311\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377e\312\377\377\\\301\370\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377D\271\376\377@\267\377\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\036k\234\377\0245H\377\030\230\355\377\027\242\377\377\021\237\377\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377e\312\377\377e\312\377\377e\312\377\377c\311\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377G\211\253\377c\311\377\377c\311\377\377c\311\377\377c\311\377\377_\307\377\377_\307\377\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377X\303\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377e\312\377\377_\307\377\377_\307\377\377_\307\377\377c\311\377\3773x\236\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377c\311\377\377_\307\377\377c\311\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377X\303\377\377X\303\377\377X\303\377\377X\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377_\307\377\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377Z\277\367\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\\\301\370\377_\307\377\377_\307\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377;\264\376\3775\262\377\377:\263\374\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377%\250\376\377\027[\207\377\037\222\335\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377V\302\377\377X\303\377\377X\303\377\377V\302\377\377X\303\377\377W\303\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3773x\236\377_\307\377\377]\306\377\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377J\274\377\377T\301\376\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377\032e\225\377\b\024\032\377\000\000\000\377\025<S\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\037\222\335\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377V\302\377\377V\302\377\377V\302\377\377X\303\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\306\377\377]\304\375\377]\304\375\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377]\304\375\377]\306\377\377]\306\377\377]\306\377\377>\211\263\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377]\304\375\377]\306\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377N\276\377\377J\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377(\252\376\377(\252\376\377'\252\376\377\027[\207\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\306\377\377]\304\375\377]\304\375\377]\304\375\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377W\303\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377R\300\376\377R\300\376\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377B\270\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377\037\222\335\377\036Qn\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377V\302\377\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377]\304\375\377V\302\377\377]\304\375\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\3771\210\275\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\030\230\355\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377W\303\377\377V\302\377\377V\302\377\377W\303\377\377W\303\377\377V\302\377\377D\266\372\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377>\211\263\377W\303\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377W\303\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377R\300\376\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377H\273\377\377H\273\377\377I\274\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\266\372\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3772\260\377\377/\256\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\024\032\377\032e\225\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377T\301\376\377J\274\377\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377V\302\377\377W\303\377\377V\302\377\377V\302\377\377\036Qn\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377C\267\373\377V\302\377\377V\302\377\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377J\274\377\377I\274\377\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3775\262\377\3777\262\377\3777\262\377\3777\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\036k\234\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\032\225\347\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377>\211\263\377J\274\377\377T\301\376\377T\301\376\377Q\277\377\377Q\277\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377D\266\372\377\006\016\024\377\035Wz\377D\266\372\377T\301\376\377V\302\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377N\276\377\377N\276\377\377L\275\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377@\267\377\377D\271\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377\030\230\355\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\036k\234\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\3773x\236\377I\274\377\377Q\277\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377V\302\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377G\272\377\377G\272\377\377I\274\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\3778\263\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3777\262\377\3771\257\376\377&p\234\3771\210\275\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377'\252\376\377'\252\376\377\0245H\377\003\004\006\377\031Fb\377!\216\323\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\022\231\364\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\036Qn\377>\211\263\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377T\301\376\377T\301\376\377Q\277\377\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377N\276\377\377N\276\377\377N\276\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377L\275\377\377G\272\377\377L\275\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377=\265\376\3778\263\376\3778\263\376\3778\263\376\3771\210\275\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\0245H\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377\037\222\335\377\030\230\355\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\035Wz\377D\266\372\377N\276\377\377N\276\377\377N\276\377\377T\301\376\377N\276\377\377N\276\377\377T\301\376\377T\301\376\377J\274\377\377N\276\377\377T\301\376\377N\276\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377T\301\376\377T\301\376\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377T\301\376\377J\274\377\377J\274\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377L\275\377\377I\274\377\377I\274\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377<\265\376\377=\265\376\377\037\222\335\377&p\234\377\036Qn\377\024.=\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\021\233\371\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377D\266\372\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377Q\277\377\377Q\277\377\377J\274\377\377J\274\377\377T\301\376\377J\274\377\377Q\277\377\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377T\301\376\377T\301\376\377J\274\377\377T\301\376\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377G\272\377\377I\274\377\377G\272\377\377G\272\377\377G\272\377\377D\271\376\377G\272\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&\212\311\377*\253\377\377/\256\377\377(\252\376\377+\254\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377I\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377Q\277\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377G\272\377\377G\272\377\377G\272\377\377B\270\376\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377?\267\377\377<\265\376\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\377&\212\311\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377(\252\376\377/\256\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\017\236\377\377\037\222\335\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377I\274\377\377I\274\377\377I\274\377\377I\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377J\274\377\377D\266\372\377\000\000\000\377\t\033'\377\017$0\377\031Fb\377\036Qn\377&p\234\377&p\234\3773x\236\377&\212\311\377&\212\311\377&\212\311\377D\266\372\377I\274\377\377I\274\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377\037\222\335\377&\212\311\377&p\234\377&p\234\377\027[\207\377\031Fb\377\031Fb\377\017$0\377\017$0\377\b\027 \377\000\000\000\377\035Wz\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3771\257\377\377\001\002\002\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\031Fb\377\036k\234\377(\252\376\377*\253\377\377(\252\376\377+\254\377\377(\252\376\377(\252\376\377%\250\376\377%\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377\035Wz\377\017$0\377\000\000\000\377:\262\373\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377J\274\377\377J\274\377\377!\216\323\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377=\265\376\377H\273\377\377H\273\377\377H\273\377\377I\274\377\377H\273\377\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377:\263\374\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\377\017$0\377\000\000\000\377\001\002\002\377\000\000\000\377\b\027 \377\025<S\377\036k\234\377\037\222\335\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\3778\263\376\377D\271\376\377:\262\373\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377H\273\377\377I\274\377\377I\274\377\377I\274\377\377I\274\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377H\273\377\377H\273\377\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377<\265\376\377<\265\376\377<\265\376\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\377\036k\234\377\027[\207\3771\210\275\377(\252\376\3771\257\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377%\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\022\231\364\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377H\273\377\377D\271\376\377H\273\377\377D\271\376\377D\271\376\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377D\266\372\377D\271\376\3773x\236\377\b\027 \3771\210\275\377D\271\376\377D\271\376\377B\270\376\377B\270\376\377D\271\376\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377<\265\376\3778\263\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377%\250\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\377D\271\376\3773x\236\377\017$0\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377!\216\323\377\024.=\377\000\000\000\377\000\000\000\377\b\024\032\3778\263\376\377D\271\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377\036Qn\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\017$0\377\031Fb\377:\262\373\3778\263\376\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377,\255\377\377/\256\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\3771\210\275\377@\267\377\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377D\271\376\377B\270\376\377B\270\376\377B\270\376\3778\263\376\377&\212\311\3773x\236\377&p\234\377&p\234\377\035Wz\377\031Fb\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377@\267\377\377B\270\376\377<\265\376\377<\265\376\377@\267\377\3773x\236\377\035Wz\377&p\234\377&p\234\377&\212\311\377&\212\311\377\032\225\347\377<\265\376\377:\263\374\3775\262\377\3778\263\376\3778\263\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377%\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377!\247\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377!\216\323\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377:\262\373\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377B\270\376\377@\267\377\377@\267\377\377@\267\377\377@\267\377\377D\271\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377B\270\376\377?\267\377\377B\270\376\377?\267\377\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377&p\234\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\3775\262\377\377;\264\376\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3777\262\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\021\233\371\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377:\262\373\377@\267\377\377@\267\377\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377<\265\376\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377?\267\377\377?\267\377\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\3778\263\376\377<\265\376\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377@\267\377\377<\265\376\377<\265\376\377@\267\377\377<\265\376\377?\267\377\377?\267\377\377<\265\376\377B\270\376\377<\265\376\377<\265\376\377B\270\376\377?\267\377\377<\265\376\377<\265\376\377<\265\376\377:\263\374\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377<\265\376\377<\265\376\377;\264\376\377;\264\376\3775\262\377\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377!\247\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377<\265\376\377;\264\376\377?\267\377\377;\264\376\377&p\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\036k\234\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3775\262\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\3778\263\376\377<\265\376\377=\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377<\265\376\377<\265\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377;\264\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377!\216\323\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3777\262\377\3775\262\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\032e\225\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\3778\263\376\377;\264\376\377;\264\376\377;\264\376\3777\262\377\377;\264\376\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3775\262\377\3777\262\377\3775\262\377\377;\264\376\377/\256\377\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\3771\257\377\3771\257\377\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3775\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377(\252\376\377/\256\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377%\250\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\027\242\377\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377&\212\311\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\035Wz\3778\263\376\3777\262\377\3777\262\377\3777\262\377\3778\263\376\3777\262\377\3775\262\377\3775\262\377\377;\264\376\3775\262\377\3777\262\377\3777\262\377\3775\262\377\377;\264\376\3775\262\377\377;\264\376\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3771\210\275\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\3777\262\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\031Fb\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3777\262\377\3775\262\377\3775\262\377\3775\262\377\3775\262\377\3771\257\377\3777\262\377\3775\262\377\3771\257\377\3777\262\377\3771\257\377\3777\262\377\3771\257\377\3775\262\377\3772\260\377\3775\262\377\3772\260\377\377\035Wz\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377(\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\3771\257\376\3777\262\377\3771\257\377\3777\262\377\3775\262\377\3772\260\377\3775\262\377\3775\262\377\3775\262\377\3772\260\377\3775\262\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\377\036Qn\377\037\222\335\377/\256\377\3771\257\377\377/\256\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377*\253\377\377*\253\377\377/\256\377\377/\256\377\377(\252\376\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\027[\207\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377/\256\377\3771\257\377\3771\257\377\3772\260\377\3771\257\377\3771\257\377\3772\260\377\3772\260\377\3771\257\377\3772\260\377\3771\257\377\3772\260\377\3772\260\377\3772\260\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377/\256\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\3771\210\275\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\3771\257\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377!\247\376\377'\252\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\027[\207\377/\256\377\377/\256\377\377/\256\377\377/\256\377\3771\257\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377/\256\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377!\247\376\377!\247\376\377!\247\376\377!\247\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\036k\234\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\030\230\355\377/\256\377\377,\255\377\377*\253\377\377/\256\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377,\255\377\377/\256\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377/\256\377\377(\252\376\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377!\247\376\377\033\244\376\377\033\244\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\032e\225\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377/\256\377\377*\253\377\377,\255\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377(\252\376\377(\252\376\377(\252\376\377(\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377&\212\311\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377!\216\323\377*\253\377\377*\253\377\377*\253\377\377,\255\377\377*\253\377\377,\255\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377!\216\323\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\032\243\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\016\235\377\377\022\231\364\377\031Fb\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\001\002\002\377\036Qn\377'\252\376\377(\252\376\377*\253\377\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377*\253\377\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\025<S\377\003\004\006\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\032\243\376\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032e\225\377\006\016\024\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\035Wz\377\030\230\355\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\030\230\355\377\024.=\377\000\000\000\377\000\000\000\377\006\016\024\377\037\222\335\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\032\243\376\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\017\236\377\377\017\236\377\377\017\236\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\004\n\r\377\036Qn\377\030\230\355\377'\252\376\377%\250\376\377!\247\376\377!\247\376\377'\252\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\b\027 \377\032\225\347\377\037\246\376\377\037\246\376\377\033\244\376\377\033\244\376\377\032\243\376\377\033\244\376\377\032\243\376\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\016\235\377\377\016\235\377\377\016\235\377\377\017\236\377\377\016\235\377\377\032e\225\377\t\033'\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\031Fb\377&\212\311\377!\247\376\377#\250\376\377#\250\376\377#\250\376\377#\250\376\377\037\246\376\377\037\246\376\377!\247\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\035Wz\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\030\230\355\377\032\243\376\377\033\244\376\377\033\244\376\377\027\242\377\377\027\242\377\377\032\243\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\016\235\377\377\016\235\377\377\016\235\377\377\032\225\347\377\027[\207\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\t\033'\377\027[\207\377\032\225\347\377#\250\376\377\037\246\376\377\037\246\376\377#\250\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\025<S\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\021\233\371\377\027\242\377\377\033\244\376\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\021\237\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\016\235\377\377\021\233\371\377\036k\234\377\0245H\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\024.=\377\027[\207\377!\216\323\377\037\246\376\377\037\246\376\377\037\246\376\377\037\246\376\377\033\244\376\377\037\246\376\377\033\244\376\377\032\243\376\377\024.=\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\027\242\377\377\021\237\377\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\017\236\377\377\017\236\377\377\030\230\355\377\036k\234\377\031Fb\377\004\n\r\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\006\016\024\377\025<S\377\032e\225\377\037\222\335\377\032\243\376\377\033\244\376\377\033\244\376\377\032\243\376\377\016\234\375\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\0245H\377\021\233\371\377\027\242\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\021\237\377\377\017\236\377\377\021\237\377\377\021\237\377\377\017\236\377\377\022\231\364\377\036k\234\377\035Wz\377\017$0\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\017$0\377\025<S\377\035Wz\377\036k\234\377&\212\311\377\b\027 \377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\025<S\377\027\242\377\377\021\237\377\377\027\242\377\377!\216\323\377&\212\311\377\036k\234\377\032e\225\377\031Fb\377\024.=\377\b\024\032\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\003\004\006\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\377\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000\000"
.space 3
.subsections_via_symbols
| the_stack_data/234532.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__literal16,16byte_literals
.p2align 4 ## -- Begin function print_num_g
LCPI0_0:
.quad 0x8000000000000000 ## double -0
.quad 0x8000000000000000 ## double -0
.section __TEXT,__text,regular,pure_instructions
.p2align 4, 0x90
_print_num_g: ## @print_num_g
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $40, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %r9d, %r15d
movl %r8d, %r12d
movl %ecx, -52(%rbp) ## 4-byte Spill
movq %rdx, -80(%rbp) ## 8-byte Spill
movq %rsi, -72(%rbp) ## 8-byte Spill
movq %rdi, -64(%rbp) ## 8-byte Spill
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -48(%rbp)
movq _PRINT_FLOAT_BUFSZ@GOTPCREL(%rip), %rax
movl (%rax), %r14d
movq %r14, %rax
callq ____chkstk_darwin
addq $15, %rax
andq $-16, %rax
subq %rax, %rsp
movq %rsp, %r13
testl %r15d, %r15d
movl $6, %edx
cmovnel %r12d, %edx
movapd LCPI0_0(%rip), %xmm1 ## xmm1 = [-0.0E+0,-0.0E+0]
xorpd %xmm0, %xmm1
xorl %ebx, %ebx
ucomisd %xmm0, %xmm1
seta %bl
testl %edx, %edx
movl $1, %eax
cmovel %eax, %edx
maxsd %xmm0, %xmm1
movq %r13, %rdi
movl %r14d, %esi
movapd %xmm1, %xmm0
callq _print_float_g
## kill: def $eax killed $eax def $rax
movq -64(%rbp), %rdi ## 8-byte Reload
movq -72(%rbp), %rsi ## 8-byte Reload
movq -80(%rbp), %rdx ## 8-byte Reload
movl -52(%rbp), %ecx ## 4-byte Reload
movl $1, %r8d
xorl %r9d, %r9d
pushq %rax
pushq %r13
pushq %rbx
pushq $0
movl 40(%rbp), %eax
pushq %rax
movl 32(%rbp), %eax
pushq %rax
movl 24(%rbp), %eax
pushq %rax
movl 16(%rbp), %eax
pushq %rax
callq _print_num
addq $64, %rsp
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -48(%rbp), %rax
jne LBB0_2
## %bb.1:
leaq -40(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB0_2:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.comm _PRINT_FLOAT_BUFSZ,4,2 ## @PRINT_FLOAT_BUFSZ
.no_dead_strip _print_num_g
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function print_num_g
_print_num_g: ; @print_num_g
.cfi_startproc
; %bb.0:
stp x28, x27, [sp, #-96]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 96
stp x26, x25, [sp, #16] ; 16-byte Folded Spill
stp x24, x23, [sp, #32] ; 16-byte Folded Spill
stp x22, x21, [sp, #48] ; 16-byte Folded Spill
stp x20, x19, [sp, #64] ; 16-byte Folded Spill
stp x29, x30, [sp, #80] ; 16-byte Folded Spill
add x29, sp, #80
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
.cfi_offset w27, -88
.cfi_offset w28, -96
sub sp, sp, #16
mov x19, x7
mov x20, x6
mov x21, x3
mov x22, x2
mov x23, x1
mov x24, x0
ldp w26, w27, [x29, #16]
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
stur x8, [x29, #-88]
Lloh3:
adrp x8, _PRINT_FLOAT_BUFSZ@GOTPAGE
Lloh4:
ldr x8, [x8, _PRINT_FLOAT_BUFSZ@GOTPAGEOFF]
Lloh5:
ldr w1, [x8]
mov x9, x1
Lloh6:
adrp x16, ___chkstk_darwin@GOTPAGE
Lloh7:
ldr x16, [x16, ___chkstk_darwin@GOTPAGEOFF]
blr x16
mov x8, sp
add x9, x1, #15
and x9, x9, #0x1fffffff0
sub x25, x8, x9
mov sp, x25
mov w8, #6
cmp w5, #0
csel w8, w8, w4, eq
cmp w8, #0
csinc w2, w8, wzr, ne
fcmp d0, #0.0
cset w28, mi
fneg d1, d0
fcsel d0, d1, d0, mi
mov x0, x25
; kill: def $w1 killed $w1 killed $x1
bl _print_float_g
sub sp, sp, #32
str w0, [sp, #24]
str x25, [sp, #16]
stp wzr, w28, [sp, #8]
stp w26, w27, [sp]
mov x0, x24
mov x1, x23
mov x2, x22
mov x3, x21
mov w4, #1
mov w5, #0
mov x6, x20
mov x7, x19
bl _print_num
add sp, sp, #32
ldur x8, [x29, #-88]
Lloh8:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh9:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh10:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_2
; %bb.1:
sub sp, x29, #80
ldp x29, x30, [sp, #80] ; 16-byte Folded Reload
ldp x20, x19, [sp, #64] ; 16-byte Folded Reload
ldp x22, x21, [sp, #48] ; 16-byte Folded Reload
ldp x24, x23, [sp, #32] ; 16-byte Folded Reload
ldp x26, x25, [sp, #16] ; 16-byte Folded Reload
ldp x28, x27, [sp], #96 ; 16-byte Folded Reload
ret
LBB0_2:
bl ___stack_chk_fail
.loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10
.loh AdrpLdrGot Lloh6, Lloh7
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _PRINT_FLOAT_BUFSZ,4,2 ; @PRINT_FLOAT_BUFSZ
.no_dead_strip _print_num_g
.subsections_via_symbols
| AnghaBench/freebsd/contrib/ldns/compat/extr_snprintf.c_print_num_g.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function gmc_motion
_gmc_motion: ## @gmc_motion
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $104, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rcx, -120(%rbp) ## 8-byte Spill
movq %rdx, -104(%rbp) ## 8-byte Spill
movq %rsi, %r9
movq %rsi, -128(%rbp) ## 8-byte Spill
movq %rdi, %r13
movq 16(%rdi), %rax
movq (%rax), %rcx
movq 24(%rdi), %rax
movl 32(%rdi), %edx
movq (%rax), %rsi
movq 8(%rax), %rdi
movl (%rsi), %ebx
movq %rbx, -88(%rbp) ## 8-byte Spill
movl 4(%rsi), %esi
movq %rsi, -56(%rbp) ## 8-byte Spill
movl %edx, %eax
imull %ebx, %eax
movl 36(%r13), %ebx
movl %ebx, %r12d
imull %esi, %r12d
addl %eax, %r12d
shll $4, %r12d
addl (%rcx), %r12d
movl (%rdi), %eax
movq %rax, -72(%rbp) ## 8-byte Spill
movl 4(%rdi), %esi
movq %rsi, -136(%rbp) ## 8-byte Spill
imull %eax, %edx
imull %esi, %ebx
addl %edx, %ebx
shll $4, %ebx
addl 4(%rcx), %ebx
movl (%r13), %ecx
leal 1(%rcx), %r10d
movq %r10, -96(%rbp) ## 8-byte Spill
addl %ecx, %ecx
orb $1, %cl
movl $1, %edx
## kill: def $cl killed $cl killed $rcx
shll %cl, %edx
movslq %edx, %r15
movq %r15, %r11
subq 48(%r13), %r11
movl 4(%r13), %edx
movl %edx, -48(%rbp) ## 4-byte Spill
movl 8(%r13), %eax
movl %eax, -60(%rbp) ## 4-byte Spill
movq %r8, -112(%rbp) ## 8-byte Spill
movq (%r8), %rsi
movq %rsi, -80(%rbp) ## 8-byte Spill
movl 40(%r13), %eax
movl 44(%r13), %r14d
movq %r9, %rdi
movl $16, %ecx
movl %r12d, %r8d
movl %ebx, %r9d
pushq %r14
pushq %rax
pushq %r11
pushq %r10
pushq -136(%rbp) ## 8-byte Folded Reload
pushq -72(%rbp) ## 8-byte Folded Reload
pushq -56(%rbp) ## 8-byte Folded Reload
pushq -88(%rbp) ## 8-byte Folded Reload
callq *56(%r13)
addq $64, %rsp
movq -128(%rbp), %rdi ## 8-byte Reload
addq $32, %rdi
movq 24(%r13), %rax
movq (%rax), %rcx
movq 8(%rax), %rdx
movl (%rcx), %r11d
movl 4(%rcx), %r10d
leal (%r12,%r11,8), %r8d
movl (%rdx), %eax
movl 4(%rdx), %r14d
leal (%rbx,%rax,8), %r9d
movq %r15, -88(%rbp) ## 8-byte Spill
movq %r15, %rbx
subq 48(%r13), %rbx
movl 40(%r13), %r15d
movl 44(%r13), %r12d
movq -80(%rbp), %rsi ## 8-byte Reload
movl -48(%rbp), %edx ## 4-byte Reload
movl $16, %ecx
pushq %r12
pushq %r15
pushq %rbx
pushq -96(%rbp) ## 8-byte Folded Reload
pushq %r14
pushq %rax
pushq %r10
pushq %r11
callq *56(%r13)
addq $64, %rsp
movq _CONFIG_GRAY@GOTPCREL(%rip), %rax
cmpq $0, (%rax)
je LBB0_2
## %bb.1:
movq 64(%r13), %rax
movq _AV_CODEC_FLAG_GRAY@GOTPCREL(%rip), %rcx
movl (%rcx), %ecx
testl %ecx, (%rax)
je LBB0_2
## %bb.3:
addq $104, %rsp
jmp LBB0_4
LBB0_2:
movq 16(%r13), %rax
movq 24(%r13), %rcx
movq 8(%rax), %rdx
movl 32(%r13), %esi
movq (%rcx), %rax
movq 8(%rcx), %rcx
movl (%rax), %edi
movq %rdi, -56(%rbp) ## 8-byte Spill
movl 4(%rax), %ebx
movq %rbx, -48(%rbp) ## 8-byte Spill
movl %esi, %eax
imull %edi, %eax
movl 36(%r13), %r14d
movl %r14d, %r12d
imull %ebx, %r12d
addl %eax, %r12d
shll $3, %r12d
addl (%rdx), %r12d
movl (%rcx), %eax
movq %rax, -80(%rbp) ## 8-byte Spill
movl 4(%rcx), %ecx
movq %rcx, -72(%rbp) ## 8-byte Spill
imull %eax, %esi
imull %ecx, %r14d
addl %esi, %r14d
shll $3, %r14d
addl 4(%rdx), %r14d
movq -112(%rbp), %r15 ## 8-byte Reload
movq 8(%r15), %rsi
movq -88(%rbp), %rbx ## 8-byte Reload
movq %rbx, %rax
subq 48(%r13), %rax
movl 40(%r13), %r10d
incl %r10d
sarl %r10d
movl 44(%r13), %r11d
incl %r11d
sarl %r11d
movq -104(%rbp), %rdi ## 8-byte Reload
movl -60(%rbp), %edx ## 4-byte Reload
movl $8, %ecx
movl %r12d, %r8d
movl %r14d, %r9d
pushq %r11
pushq %r10
pushq %rax
pushq -96(%rbp) ## 8-byte Folded Reload
pushq -72(%rbp) ## 8-byte Folded Reload
pushq -80(%rbp) ## 8-byte Folded Reload
pushq -48(%rbp) ## 8-byte Folded Reload
pushq -56(%rbp) ## 8-byte Folded Reload
callq *56(%r13)
addq $64, %rsp
movq 16(%r15), %rsi
movq 24(%r13), %rax
movq (%rax), %rcx
movq 8(%rax), %rdx
movl (%rcx), %eax
movq %rax, -56(%rbp) ## 8-byte Spill
movl 4(%rcx), %eax
movq %rax, -48(%rbp) ## 8-byte Spill
movl (%rdx), %r15d
movl 4(%rdx), %r11d
subq 48(%r13), %rbx
movl 40(%r13), %eax
incl %eax
sarl %eax
movl 44(%r13), %r10d
incl %r10d
sarl %r10d
movq -120(%rbp), %rdi ## 8-byte Reload
movl -60(%rbp), %edx ## 4-byte Reload
movl $8, %ecx
movl %r12d, %r8d
movl %r14d, %r9d
pushq %r10
pushq %rax
pushq %rbx
pushq -96(%rbp) ## 8-byte Folded Reload
pushq %r11
pushq %r15
pushq -48(%rbp) ## 8-byte Folded Reload
pushq -56(%rbp) ## 8-byte Folded Reload
callq *56(%r13)
addq $168, %rsp
LBB0_4:
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _CONFIG_GRAY,8,3 ## @CONFIG_GRAY
.comm _AV_CODEC_FLAG_GRAY,4,2 ## @AV_CODEC_FLAG_GRAY
.no_dead_strip _gmc_motion
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function gmc_motion
_gmc_motion: ; @gmc_motion
.cfi_startproc
; %bb.0:
sub sp, sp, #144
.cfi_def_cfa_offset 144
stp x28, x27, [sp, #48] ; 16-byte Folded Spill
stp x26, x25, [sp, #64] ; 16-byte Folded Spill
stp x24, x23, [sp, #80] ; 16-byte Folded Spill
stp x22, x21, [sp, #96] ; 16-byte Folded Spill
stp x20, x19, [sp, #112] ; 16-byte Folded Spill
stp x29, x30, [sp, #128] ; 16-byte Folded Spill
add x29, sp, #128
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
.cfi_offset w27, -88
.cfi_offset w28, -96
mov x22, x4
stp x2, x3, [sp, #32] ; 16-byte Folded Spill
mov x26, x1
mov x21, x0
ldp w8, w24, [x0]
ldr w20, [x0, #8]
ldr x25, [x4]
ldp x9, x10, [x0, #16]
ldr x9, [x9]
ldp x11, x10, [x10]
ldp w6, w7, [x11]
ldp w11, w12, [x0, #32]
mul w13, w11, w6
madd w13, w12, w7, w13
ldp w14, w9, [x9]
add w27, w14, w13, lsl #4
ldp w13, w10, [x10]
mul w11, w13, w11
madd w11, w10, w12, w11
add w28, w9, w11, lsl #4
add w19, w8, #1
mov w9, #1
mov w11, #1
bfi w11, w8, #1, #31
lsl w8, w9, w11
sxtw x23, w8
ldp x9, x8, [x0, #48]
sub x9, x23, x9
ldp w11, w12, [x0, #40]
stp w11, w12, [sp, #24]
stp w10, w19, [sp, #4]
str w13, [sp]
str x9, [sp, #16]
mov x0, x1
mov x1, x25
mov x2, x24
mov w3, #16
mov x4, x27
mov x5, x28
blr x8
add x0, x26, #32
ldr x8, [x21, #24]
ldp x9, x8, [x8]
ldp w6, w7, [x9]
add w4, w27, w6, lsl #3
ldp w9, w8, [x8]
add w5, w28, w9, lsl #3
ldp x11, x10, [x21, #48]
sub x11, x23, x11
ldp w12, w13, [x21, #40]
stp w12, w13, [sp, #24]
str x11, [sp, #16]
stp w8, w19, [sp, #4]
str w9, [sp]
mov x1, x25
mov x2, x24
mov w3, #16
blr x10
Lloh0:
adrp x8, _CONFIG_GRAY@GOTPAGE
Lloh1:
ldr x8, [x8, _CONFIG_GRAY@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
cbz x8, LBB0_2
; %bb.1:
ldr x8, [x21, #64]
ldr w8, [x8]
Lloh3:
adrp x9, _AV_CODEC_FLAG_GRAY@GOTPAGE
Lloh4:
ldr x9, [x9, _AV_CODEC_FLAG_GRAY@GOTPAGEOFF]
Lloh5:
ldr w9, [x9]
tst w9, w8
b.ne LBB0_3
LBB0_2:
ldp x8, x9, [x21, #16]
ldr x8, [x8, #8]
ldp x10, x9, [x9]
ldp w6, w7, [x10]
ldp w10, w11, [x21, #32]
mul w12, w10, w6
madd w12, w11, w7, w12
ldp w13, w8, [x8]
add w24, w13, w12, lsl #3
ldp w12, w9, [x9]
mul w10, w12, w10
madd w10, w9, w11, w10
add w25, w8, w10, lsl #3
ldr x1, [x22, #8]
ldp x10, x8, [x21, #48]
sub x10, x23, x10
ldp w11, w13, [x21, #40]
add w11, w11, #1
asr w11, w11, #1
add w13, w13, #1
asr w13, w13, #1
stp w11, w13, [sp, #24]
str x10, [sp, #16]
stp w9, w19, [sp, #4]
str w12, [sp]
ldr x0, [sp, #32] ; 8-byte Folded Reload
mov x2, x20
mov w3, #8
mov x4, x24
mov x5, x25
blr x8
ldr x1, [x22, #16]
ldr x8, [x21, #24]
ldp x9, x8, [x8]
ldp w6, w7, [x9]
ldp w9, w8, [x8]
ldp x11, x10, [x21, #48]
sub x11, x23, x11
ldp w12, w13, [x21, #40]
add w12, w12, #1
asr w12, w12, #1
add w13, w13, #1
asr w13, w13, #1
stp w12, w13, [sp, #24]
str x11, [sp, #16]
stp w8, w19, [sp, #4]
str w9, [sp]
ldr x0, [sp, #40] ; 8-byte Folded Reload
mov x2, x20
mov w3, #8
mov x4, x24
mov x5, x25
blr x10
LBB0_3:
ldp x29, x30, [sp, #128] ; 16-byte Folded Reload
ldp x20, x19, [sp, #112] ; 16-byte Folded Reload
ldp x22, x21, [sp, #96] ; 16-byte Folded Reload
ldp x24, x23, [sp, #80] ; 16-byte Folded Reload
ldp x26, x25, [sp, #64] ; 16-byte Folded Reload
ldp x28, x27, [sp, #48] ; 16-byte Folded Reload
add sp, sp, #144
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.cfi_endproc
; -- End function
.comm _CONFIG_GRAY,8,3 ; @CONFIG_GRAY
.comm _AV_CODEC_FLAG_GRAY,4,2 ; @AV_CODEC_FLAG_GRAY
.no_dead_strip _gmc_motion
.subsections_via_symbols
| AnghaBench/FFmpeg/libavcodec/extr_mpegvideo_motion.c_gmc_motion.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _getBuckets ## -- Begin function getBuckets
.p2align 4, 0x90
_getBuckets: ## @getBuckets
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $24, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %r9d, %r14d
movl %r8d, %r13d
movl %ecx, %ebx
movq %rsi, %r15
movq %rdi, %r12
movl %ecx, %r9d
testl %ecx, %ecx
js LBB0_2
## %bb.1:
leaq 4(,%r9,4), %rsi
movq %r15, %rdi
movq %r9, -56(%rbp) ## 8-byte Spill
movl %edx, -44(%rbp) ## 4-byte Spill
callq ___bzero
movl -44(%rbp), %edx ## 4-byte Reload
movq -56(%rbp), %r9 ## 8-byte Reload
LBB0_2:
testl %edx, %edx
jle LBB0_10
## %bb.3:
movl %edx, %eax
cmpl $1, %edx
jne LBB0_13
## %bb.4:
xorl %edi, %edi
LBB0_5:
testb $1, %al
je LBB0_10
## %bb.6:
cmpl $4, %r13d
jne LBB0_7
## %bb.8:
movl (%r12,%rdi,4), %eax
jmp LBB0_9
LBB0_13:
movl %eax, %edx
andl $-2, %edx
xorl %edi, %edi
jmp LBB0_14
.p2align 4, 0x90
LBB0_19: ## in Loop: Header=BB0_14 Depth=1
movl 4(%r12,%rdi,4), %esi
LBB0_20: ## in Loop: Header=BB0_14 Depth=1
movslq %esi, %rsi
incl (%r15,%rsi,4)
addq $2, %rdi
cmpq %rdi, %rdx
je LBB0_5
LBB0_14: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r13d
jne LBB0_16
## %bb.15: ## in Loop: Header=BB0_14 Depth=1
movl (%r12,%rdi,4), %esi
jmp LBB0_17
.p2align 4, 0x90
LBB0_16: ## in Loop: Header=BB0_14 Depth=1
movzbl (%r12,%rdi), %esi
LBB0_17: ## in Loop: Header=BB0_14 Depth=1
movslq %esi, %rsi
incl (%r15,%rsi,4)
cmpl $4, %r13d
je LBB0_19
## %bb.18: ## in Loop: Header=BB0_14 Depth=1
movzbl 1(%r12,%rdi), %esi
jmp LBB0_20
LBB0_7:
movzbl (%r12,%rdi), %eax
LBB0_9:
cltq
incl (%r15,%rax,4)
LBB0_10:
testl %ebx, %ebx
js LBB0_26
## %bb.11:
incq %r9
movl %r9d, %r8d
andl $3, %r8d
cmpl $3, %ebx
jae LBB0_21
## %bb.12:
xorl %ecx, %ecx
xorl %edx, %edx
jmp LBB0_23
LBB0_21:
andl $-4, %r9d
xorl %ecx, %ecx
xorl %esi, %esi
.p2align 4, 0x90
LBB0_22: ## =>This Inner Loop Header: Depth=1
movl (%r15,%rcx,4), %edi
addl %esi, %edi
movl 4(%r15,%rcx,4), %eax
addl %edi, %eax
movl 8(%r15,%rcx,4), %ebx
addl %eax, %ebx
movl 12(%r15,%rcx,4), %edx
addl %ebx, %edx
testl %r14d, %r14d
cmovnel %edi, %esi
movl %esi, (%r15,%rcx,4)
cmovnel %eax, %edi
movl %edi, 4(%r15,%rcx,4)
cmovnel %ebx, %eax
cmovnel %edx, %ebx
movl %eax, 8(%r15,%rcx,4)
movl %ebx, 12(%r15,%rcx,4)
addq $4, %rcx
movl %edx, %esi
cmpq %rcx, %r9
jne LBB0_22
LBB0_23:
testq %r8, %r8
je LBB0_26
## %bb.24:
leaq (%r15,%rcx,4), %rcx
xorl %esi, %esi
.p2align 4, 0x90
LBB0_25: ## =>This Inner Loop Header: Depth=1
movl (%rcx,%rsi,4), %eax
addl %edx, %eax
testl %r14d, %r14d
cmovnel %eax, %edx
movl %edx, (%rcx,%rsi,4)
incq %rsi
movl %eax, %edx
cmpq %rsi, %r8
jne LBB0_25
LBB0_26:
addq $24, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _induceSAl ## -- Begin function induceSAl
.p2align 4, 0x90
_induceSAl: ## @induceSAl
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $24, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %r8d, -44(%rbp) ## 4-byte Spill
movq %rcx, %rbx
movq %rdx, %r14
movq %rsi, %r15
movq %rdi, %r12
movl %r9d, %edi
movl %r9d, %r13d
testl %r9d, %r9d
js LBB1_2
## %bb.1:
leaq 4(,%r13,4), %rsi
movl %edi, -56(%rbp) ## 4-byte Spill
movq %rbx, %rdi
callq ___bzero
movl -56(%rbp), %edi ## 4-byte Reload
LBB1_2:
movl 16(%rbp), %r8d
movl -44(%rbp), %esi ## 4-byte Reload
movl %esi, %r9d
testl %esi, %esi
jle LBB1_10
## %bb.3:
cmpl $1, %esi
jne LBB1_13
## %bb.4:
xorl %edx, %edx
LBB1_5:
testb $1, %r9b
je LBB1_10
## %bb.6:
cmpl $4, %r8d
jne LBB1_7
## %bb.8:
movl (%r14,%rdx,4), %eax
jmp LBB1_9
LBB1_13:
movl %r9d, %eax
andl $-2, %eax
xorl %edx, %edx
jmp LBB1_14
.p2align 4, 0x90
LBB1_19: ## in Loop: Header=BB1_14 Depth=1
movl 4(%r14,%rdx,4), %ecx
LBB1_20: ## in Loop: Header=BB1_14 Depth=1
movslq %ecx, %rcx
incl (%rbx,%rcx,4)
addq $2, %rdx
cmpq %rdx, %rax
je LBB1_5
LBB1_14: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r8d
jne LBB1_16
## %bb.15: ## in Loop: Header=BB1_14 Depth=1
movl (%r14,%rdx,4), %ecx
jmp LBB1_17
.p2align 4, 0x90
LBB1_16: ## in Loop: Header=BB1_14 Depth=1
movzbl (%r14,%rdx), %ecx
LBB1_17: ## in Loop: Header=BB1_14 Depth=1
movslq %ecx, %rcx
incl (%rbx,%rcx,4)
cmpl $4, %r8d
je LBB1_19
## %bb.18: ## in Loop: Header=BB1_14 Depth=1
movzbl 1(%r14,%rdx), %ecx
jmp LBB1_20
LBB1_7:
movzbl (%r14,%rdx), %eax
LBB1_9:
cltq
incl (%rbx,%rax,4)
LBB1_10:
testl %edi, %edi
js LBB1_26
## %bb.11:
movq %r12, -56(%rbp) ## 8-byte Spill
movl 24(%rbp), %r10d
incq %r13
movl %r13d, %r11d
andl $3, %r11d
cmpl $3, %edi
jae LBB1_21
## %bb.12:
xorl %edi, %edi
xorl %eax, %eax
jmp LBB1_23
LBB1_21:
andl $-4, %r13d
xorl %edi, %edi
xorl %ecx, %ecx
.p2align 4, 0x90
LBB1_22: ## =>This Inner Loop Header: Depth=1
movl (%rbx,%rdi,4), %edx
addl %ecx, %edx
movl 4(%rbx,%rdi,4), %esi
addl %edx, %esi
movl 8(%rbx,%rdi,4), %r12d
addl %esi, %r12d
movl 12(%rbx,%rdi,4), %eax
addl %r12d, %eax
testl %r10d, %r10d
cmovnel %edx, %ecx
movl %ecx, (%rbx,%rdi,4)
cmovnel %esi, %edx
movl %edx, 4(%rbx,%rdi,4)
cmovnel %r12d, %esi
cmovnel %eax, %r12d
movl %esi, 8(%rbx,%rdi,4)
movl %r12d, 12(%rbx,%rdi,4)
addq $4, %rdi
movl %eax, %ecx
cmpq %rdi, %r13
jne LBB1_22
LBB1_23:
testq %r11, %r11
movq -56(%rbp), %r12 ## 8-byte Reload
movl -44(%rbp), %esi ## 4-byte Reload
je LBB1_26
## %bb.24:
leaq (%rbx,%rdi,4), %rcx
xorl %edi, %edi
.p2align 4, 0x90
LBB1_25: ## =>This Inner Loop Header: Depth=1
movl (%rcx,%rdi,4), %edx
addl %eax, %edx
testl %r10d, %r10d
cmovnel %edx, %eax
movl %eax, (%rcx,%rdi,4)
incq %rdi
movl %edx, %eax
cmpq %rdi, %r11
jne LBB1_25
LBB1_26:
testl %esi, %esi
jle LBB1_35
## %bb.27:
xorl %edx, %edx
leaq _mask(%rip), %r10
jmp LBB1_28
LBB1_32: ## in Loop: Header=BB1_28 Depth=1
movzbl (%r14,%rax), %ecx
LBB1_33: ## in Loop: Header=BB1_28 Depth=1
movslq %ecx, %rax
movslq (%rbx,%rax,4), %rcx
leal 1(%rcx), %edi
movl %edi, (%rbx,%rax,4)
movl %esi, (%r15,%rcx,4)
LBB1_34: ## in Loop: Header=BB1_28 Depth=1
incq %rdx
cmpq %rdx, %r9
je LBB1_35
LBB1_28: ## =>This Inner Loop Header: Depth=1
movl (%r15,%rdx,4), %esi
testl %esi, %esi
jle LBB1_34
## %bb.29: ## in Loop: Header=BB1_28 Depth=1
decl %esi
movl %esi, %eax
movq %rax, %rdi
shrq $3, %rdi
movl %eax, %ecx
andl $7, %ecx
movzbl (%rcx,%r10), %ecx
testb %cl, (%r12,%rdi)
jne LBB1_34
## %bb.30: ## in Loop: Header=BB1_28 Depth=1
cmpl $4, %r8d
jne LBB1_32
## %bb.31: ## in Loop: Header=BB1_28 Depth=1
movl (%r14,%rax,4), %ecx
jmp LBB1_33
LBB1_35:
addq $24, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _induceSAs ## -- Begin function induceSAs
.p2align 4, 0x90
_induceSAs: ## @induceSAs
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $24, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %r9d, %ebx
movq %rcx, %r12
movq %rdx, %r14
movq %rsi, %r15
movq %rdi, -56(%rbp) ## 8-byte Spill
movl %r9d, %r13d
testl %r9d, %r9d
movl %r8d, -44(%rbp) ## 4-byte Spill
js LBB2_2
## %bb.1:
leaq 4(,%r13,4), %rsi
movq %r12, %rdi
callq ___bzero
movl -44(%rbp), %r8d ## 4-byte Reload
LBB2_2:
movl 16(%rbp), %edi
movl %r8d, %r11d
testl %r8d, %r8d
jle LBB2_10
## %bb.3:
cmpl $1, %r8d
jne LBB2_13
## %bb.4:
xorl %edx, %edx
LBB2_5:
testb $1, %r11b
je LBB2_10
## %bb.6:
cmpl $4, %edi
jne LBB2_7
## %bb.8:
movl (%r14,%rdx,4), %eax
jmp LBB2_9
LBB2_13:
movl %r11d, %eax
andl $-2, %eax
xorl %edx, %edx
jmp LBB2_14
.p2align 4, 0x90
LBB2_19: ## in Loop: Header=BB2_14 Depth=1
movl 4(%r14,%rdx,4), %esi
LBB2_20: ## in Loop: Header=BB2_14 Depth=1
movslq %esi, %rsi
incl (%r12,%rsi,4)
addq $2, %rdx
cmpq %rdx, %rax
je LBB2_5
LBB2_14: ## =>This Inner Loop Header: Depth=1
cmpl $4, %edi
jne LBB2_16
## %bb.15: ## in Loop: Header=BB2_14 Depth=1
movl (%r14,%rdx,4), %esi
jmp LBB2_17
.p2align 4, 0x90
LBB2_16: ## in Loop: Header=BB2_14 Depth=1
movzbl (%r14,%rdx), %esi
LBB2_17: ## in Loop: Header=BB2_14 Depth=1
movslq %esi, %rsi
incl (%r12,%rsi,4)
cmpl $4, %edi
je LBB2_19
## %bb.18: ## in Loop: Header=BB2_14 Depth=1
movzbl 1(%r14,%rdx), %esi
jmp LBB2_20
LBB2_7:
movzbl (%r14,%rdx), %eax
LBB2_9:
cltq
incl (%r12,%rax,4)
LBB2_10:
testl %ebx, %ebx
js LBB2_26
## %bb.11:
movl 24(%rbp), %r9d
incq %r13
movl %r13d, %r10d
andl $3, %r10d
cmpl $3, %ebx
jae LBB2_21
## %bb.12:
xorl %edi, %edi
xorl %eax, %eax
jmp LBB2_23
LBB2_21:
andl $-4, %r13d
xorl %edi, %edi
xorl %edx, %edx
.p2align 4, 0x90
LBB2_22: ## =>This Inner Loop Header: Depth=1
movl (%r12,%rdi,4), %esi
addl %edx, %esi
movl 4(%r12,%rdi,4), %ebx
addl %esi, %ebx
movl 8(%r12,%rdi,4), %ecx
addl %ebx, %ecx
movl 12(%r12,%rdi,4), %eax
addl %ecx, %eax
testl %r9d, %r9d
cmovnel %esi, %edx
movl %edx, (%r12,%rdi,4)
cmovnel %ebx, %esi
movl %esi, 4(%r12,%rdi,4)
cmovnel %ecx, %ebx
cmovnel %eax, %ecx
movl %ebx, 8(%r12,%rdi,4)
movl %ecx, 12(%r12,%rdi,4)
addq $4, %rdi
movl %eax, %edx
cmpq %rdi, %r13
jne LBB2_22
LBB2_23:
testq %r10, %r10
movl -44(%rbp), %r8d ## 4-byte Reload
je LBB2_26
## %bb.24:
leaq (%r12,%rdi,4), %rdx
xorl %edi, %edi
.p2align 4, 0x90
LBB2_25: ## =>This Inner Loop Header: Depth=1
movl (%rdx,%rdi,4), %ecx
addl %eax, %ecx
testl %r9d, %r9d
cmovnel %ecx, %eax
movl %eax, (%rdx,%rdi,4)
incq %rdi
movl %ecx, %eax
cmpq %rdi, %r10
jne LBB2_25
LBB2_26:
testl %r8d, %r8d
movq -56(%rbp), %rdx ## 8-byte Reload
movl 16(%rbp), %r8d
jle LBB2_35
## %bb.27:
incq %r11
leaq _mask(%rip), %r9
jmp LBB2_28
LBB2_32: ## in Loop: Header=BB2_28 Depth=1
movzbl (%r14,%rsi), %esi
LBB2_33: ## in Loop: Header=BB2_28 Depth=1
movslq %esi, %rcx
movslq (%r12,%rcx,4), %rsi
leaq -1(%rsi), %rdi
movl %edi, (%r12,%rcx,4)
movl %eax, -4(%r15,%rsi,4)
LBB2_34: ## in Loop: Header=BB2_28 Depth=1
decq %r11
cmpq $1, %r11
jbe LBB2_35
LBB2_28: ## =>This Inner Loop Header: Depth=1
leal -2(%r11), %eax
movl (%r15,%rax,4), %eax
testl %eax, %eax
jle LBB2_34
## %bb.29: ## in Loop: Header=BB2_28 Depth=1
decl %eax
movl %eax, %esi
movq %rsi, %rcx
shrq $3, %rcx
movl %esi, %edi
andl $7, %edi
movzbl (%rdi,%r9), %ebx
testb %bl, (%rdx,%rcx)
je LBB2_34
## %bb.30: ## in Loop: Header=BB2_28 Depth=1
cmpl $4, %r8d
jne LBB2_32
## %bb.31: ## in Loop: Header=BB2_28 Depth=1
movl (%r14,%rsi,4), %esi
jmp LBB2_33
LBB2_35:
addq $24, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__literal16,16byte_literals
.p2align 4 ## -- Begin function SA_IS
LCPI3_0:
.long 4294967294 ## 0xfffffffe
.long 4294967295 ## 0xffffffff
.space 4
.space 4
.section __TEXT,__text,regular,pure_instructions
.globl _SA_IS
.p2align 4, 0x90
_SA_IS: ## @SA_IS
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $120, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %edx, %ebx
leal 7(%rbx), %eax
testl %edx, %edx
cmovnsl %edx, %eax
movl %r8d, %r12d
## kill: def $ecx killed $ecx def $rcx
movq %rcx, -56(%rbp) ## 8-byte Spill
movq %rsi, %r14
movq %rdi, %r15
sarl $3, %eax
incl %eax
movslq %eax, %rdi
callq _malloc
movq %rbx, %r8
movd %r8d, %xmm0
pshufd $80, %xmm0, %xmm0 ## xmm0 = xmm0[0,0,1,1]
paddd LCPI3_0(%rip), %xmm0
pextrd $1, %xmm0, %ecx
leal 7(%rcx), %edx
testl %ecx, %ecx
cmovnsl %ecx, %edx
andl $-8, %edx
movq %rcx, -112(%rbp) ## 8-byte Spill
## kill: def $ecx killed $ecx killed $rcx
subl %edx, %ecx
movslq %ecx, %rcx
leaq _mask(%rip), %rbx
movb (%rcx,%rbx), %dl
movdqa %xmm0, %xmm1
psrad $31, %xmm1
psrld $29, %xmm1
paddd %xmm0, %xmm1
psrad $3, %xmm1
pmovsxdq %xmm1, %xmm0
movq %xmm0, %rcx
movb $0, (%rax,%rcx)
pextrq $1, %xmm0, %rcx
orb %dl, (%rax,%rcx)
cmpl $3, %r8d
jl LBB3_10
## %bb.1:
leal -3(%r8), %edi
incq %rdi
jmp LBB3_2
.p2align 4, 0x90
LBB3_6: ## in Loop: Header=BB3_2 Depth=1
movl %edi, %edx
movq %rdx, %rsi
shrq $3, %rsi
andl $7, %edx
movzbl (%rdx,%rbx), %edx
testb %dl, (%rax,%rsi)
je LBB3_8
LBB3_7: ## in Loop: Header=BB3_2 Depth=1
movl %ecx, %esi
andl $7, %esi
shrl $3, %ecx
movzbl (%rax,%rcx), %edx
orb (%rsi,%rbx), %dl
LBB3_9: ## in Loop: Header=BB3_2 Depth=1
movb %dl, (%rax,%rcx)
decq %rdi
jle LBB3_10
LBB3_2: ## =>This Inner Loop Header: Depth=1
leaq -1(%rdi), %rcx
cmpl $4, %r12d
jne LBB3_4
## %bb.3: ## in Loop: Header=BB3_2 Depth=1
movl -4(%r15,%rdi,4), %edx
movl (%r15,%rdi,4), %esi
cmpl %esi, %edx
jl LBB3_7
jmp LBB3_5
.p2align 4, 0x90
LBB3_4: ## in Loop: Header=BB3_2 Depth=1
movzbl -1(%r15,%rdi), %edx
movzbl (%r15,%rdi), %esi
cmpb %sil, %dl
jb LBB3_7
LBB3_5: ## in Loop: Header=BB3_2 Depth=1
cmpl %esi, %edx
je LBB3_6
LBB3_8: ## in Loop: Header=BB3_2 Depth=1
movl %ecx, %edx
andl $7, %edx
movzbl (%rdx,%rbx), %edx
notb %dl
shrl $3, %ecx
andb (%rax,%rcx), %dl
jmp LBB3_9
LBB3_10:
movq %r8, -48(%rbp) ## 8-byte Spill
movq %rax, -64(%rbp) ## 8-byte Spill
movq -56(%rbp), %rbx ## 8-byte Reload
movslq %ebx, %rax
leaq 4(,%rax,4), %rdi
movq %rdi, -152(%rbp) ## 8-byte Spill
callq _malloc
movq %rax, %r13
movl %ebx, %eax
testl %ebx, %ebx
movq %rax, -120(%rbp) ## 8-byte Spill
js LBB3_12
## %bb.11:
leaq 4(,%rax,4), %rsi
movq %r13, %rdi
callq ___bzero
LBB3_12:
movq -56(%rbp), %rax ## 8-byte Reload
incl %eax
movq -48(%rbp), %r10 ## 8-byte Reload
movl %r10d, %r11d
testl %r10d, %r10d
jle LBB3_20
## %bb.13:
cmpl $1, %r10d
jne LBB3_23
## %bb.14:
xorl %ecx, %ecx
LBB3_15:
testb $1, %r11b
je LBB3_20
## %bb.16:
cmpl $4, %r12d
jne LBB3_17
## %bb.18:
movl (%r15,%rcx,4), %ecx
jmp LBB3_19
LBB3_23:
movl %r11d, %edx
andl $-2, %edx
xorl %ecx, %ecx
jmp LBB3_24
.p2align 4, 0x90
LBB3_29: ## in Loop: Header=BB3_24 Depth=1
movl 4(%r15,%rcx,4), %esi
LBB3_30: ## in Loop: Header=BB3_24 Depth=1
movslq %esi, %rsi
incl (%r13,%rsi,4)
addq $2, %rcx
cmpq %rcx, %rdx
je LBB3_15
LBB3_24: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r12d
jne LBB3_26
## %bb.25: ## in Loop: Header=BB3_24 Depth=1
movl (%r15,%rcx,4), %esi
jmp LBB3_27
.p2align 4, 0x90
LBB3_26: ## in Loop: Header=BB3_24 Depth=1
movzbl (%r15,%rcx), %esi
LBB3_27: ## in Loop: Header=BB3_24 Depth=1
movslq %esi, %rsi
incl (%r13,%rsi,4)
cmpl $4, %r12d
je LBB3_29
## %bb.28: ## in Loop: Header=BB3_24 Depth=1
movzbl 1(%r15,%rcx), %esi
jmp LBB3_30
LBB3_17:
movzbl (%r15,%rcx), %ecx
LBB3_19:
movslq %ecx, %rcx
incl (%r13,%rcx,4)
LBB3_20:
movl %eax, %eax
movq %rax, -104(%rbp) ## 8-byte Spill
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_36
## %bb.21:
movq -104(%rbp), %rdx ## 8-byte Reload
leaq -1(%rdx), %rcx
movl %edx, %eax
andl $3, %eax
cmpq $3, %rcx
jae LBB3_31
## %bb.22:
xorl %edx, %edx
xorl %ecx, %ecx
jmp LBB3_33
LBB3_31:
movq %rdx, %rsi
## kill: def $esi killed $esi killed $rsi def $rsi
andl $-4, %esi
xorl %edx, %edx
xorl %ecx, %ecx
.p2align 4, 0x90
LBB3_32: ## =>This Inner Loop Header: Depth=1
addl (%r13,%rdx,4), %ecx
movl %ecx, (%r13,%rdx,4)
addl 4(%r13,%rdx,4), %ecx
movl %ecx, 4(%r13,%rdx,4)
addl 8(%r13,%rdx,4), %ecx
movl %ecx, 8(%r13,%rdx,4)
addl 12(%r13,%rdx,4), %ecx
movl %ecx, 12(%r13,%rdx,4)
addq $4, %rdx
cmpq %rdx, %rsi
jne LBB3_32
LBB3_33:
testq %rax, %rax
je LBB3_36
## %bb.34:
leaq (,%rdx,4), %rdx
addq %r13, %rdx
xorl %esi, %esi
.p2align 4, 0x90
LBB3_35: ## =>This Inner Loop Header: Depth=1
addl (%rdx,%rsi,4), %ecx
movl %ecx, (%rdx,%rsi,4)
incq %rsi
cmpq %rsi, %rax
jne LBB3_35
LBB3_36:
testl %r10d, %r10d
movq %r11, -88(%rbp) ## 8-byte Spill
jle LBB3_37
## %bb.38:
leaq (,%r11,4), %rdx
movq %r14, %rdi
movl $255, %esi
callq _memset
movq -48(%rbp), %r10 ## 8-byte Reload
cmpl $1, %r10d
jne LBB3_40
## %bb.39:
movl $0, -92(%rbp) ## 4-byte Folded Spill
movq -64(%rbp), %r8 ## 8-byte Reload
leaq _mask(%rip), %r9
movq -88(%rbp), %r11 ## 8-byte Reload
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
jns LBB3_50
jmp LBB3_51
LBB3_37:
movl $0, -92(%rbp) ## 4-byte Folded Spill
movq -64(%rbp), %r8 ## 8-byte Reload
leaq _mask(%rip), %r9
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_51
LBB3_50:
movq -120(%rbp), %rax ## 8-byte Reload
leaq 4(,%rax,4), %rsi
movq %r13, %rdi
callq ___bzero
movq -88(%rbp), %r11 ## 8-byte Reload
movq -48(%rbp), %r10 ## 8-byte Reload
leaq _mask(%rip), %r9
movq -64(%rbp), %r8 ## 8-byte Reload
LBB3_51:
testl %r10d, %r10d
jle LBB3_59
## %bb.52:
cmpl $1, %r10d
jne LBB3_62
## %bb.53:
xorl %eax, %eax
LBB3_54:
testb $1, %r11b
je LBB3_59
## %bb.55:
cmpl $4, %r12d
jne LBB3_56
## %bb.57:
movl (%r15,%rax,4), %eax
jmp LBB3_58
LBB3_40:
movl $1, %eax
movq -64(%rbp), %r8 ## 8-byte Reload
leaq _mask(%rip), %r9
movq -88(%rbp), %r11 ## 8-byte Reload
jmp LBB3_41
LBB3_45: ## in Loop: Header=BB3_41 Depth=1
movzbl (%r15,%rax), %ecx
LBB3_46: ## in Loop: Header=BB3_41 Depth=1
movslq %ecx, %rcx
movslq (%r13,%rcx,4), %rdx
leaq -1(%rdx), %rsi
movl %esi, (%r13,%rcx,4)
movl %eax, -4(%r14,%rdx,4)
LBB3_47: ## in Loop: Header=BB3_41 Depth=1
incq %rax
cmpq %rax, %r11
je LBB3_48
LBB3_41: ## =>This Inner Loop Header: Depth=1
movl %eax, %ecx
shrl $3, %ecx
movl %eax, %edx
andl $7, %edx
movzbl (%rdx,%r9), %edx
testb %dl, (%r8,%rcx)
je LBB3_47
## %bb.42: ## in Loop: Header=BB3_41 Depth=1
leaq -1(%rax), %rcx
movl %ecx, %edx
shrq $3, %rdx
andl $7, %ecx
movzbl (%rcx,%r9), %ecx
testb %cl, (%r8,%rdx)
jne LBB3_47
## %bb.43: ## in Loop: Header=BB3_41 Depth=1
cmpl $4, %r12d
jne LBB3_45
## %bb.44: ## in Loop: Header=BB3_41 Depth=1
movl (%r15,%rax,4), %ecx
jmp LBB3_46
LBB3_62:
movl %r11d, %ecx
andl $-2, %ecx
xorl %eax, %eax
jmp LBB3_63
.p2align 4, 0x90
LBB3_68: ## in Loop: Header=BB3_63 Depth=1
movl 4(%r15,%rax,4), %edx
LBB3_69: ## in Loop: Header=BB3_63 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
addq $2, %rax
cmpq %rax, %rcx
je LBB3_54
LBB3_63: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r12d
jne LBB3_65
## %bb.64: ## in Loop: Header=BB3_63 Depth=1
movl (%r15,%rax,4), %edx
jmp LBB3_66
.p2align 4, 0x90
LBB3_65: ## in Loop: Header=BB3_63 Depth=1
movzbl (%r15,%rax), %edx
LBB3_66: ## in Loop: Header=BB3_63 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
cmpl $4, %r12d
je LBB3_68
## %bb.67: ## in Loop: Header=BB3_63 Depth=1
movzbl 1(%r15,%rax), %edx
jmp LBB3_69
LBB3_48:
movb $1, %al
movl %eax, -92(%rbp) ## 4-byte Spill
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
jns LBB3_50
jmp LBB3_51
LBB3_56:
movzbl (%r15,%rax), %eax
LBB3_58:
cltq
incl (%r13,%rax,4)
LBB3_59:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_75
## %bb.60:
movq -104(%rbp), %rdx ## 8-byte Reload
leaq -1(%rdx), %rcx
movl %edx, %eax
andl $3, %eax
cmpq $3, %rcx
jae LBB3_70
## %bb.61:
xorl %ecx, %ecx
xorl %edx, %edx
jmp LBB3_72
LBB3_70:
movq %rdx, %rsi
## kill: def $esi killed $esi killed $rsi def $rsi
andl $-4, %esi
xorl %ecx, %ecx
xorl %edx, %edx
.p2align 4, 0x90
LBB3_71: ## =>This Inner Loop Header: Depth=1
movl (%r13,%rcx,4), %edi
addl %edx, %edi
movl %edx, (%r13,%rcx,4)
movl 4(%r13,%rcx,4), %edx
addl %edi, %edx
movl %edi, 4(%r13,%rcx,4)
movl 8(%r13,%rcx,4), %edi
addl %edx, %edi
movl %edx, 8(%r13,%rcx,4)
movl 12(%r13,%rcx,4), %edx
addl %edi, %edx
movl %edi, 12(%r13,%rcx,4)
addq $4, %rcx
cmpq %rcx, %rsi
jne LBB3_71
LBB3_72:
testq %rax, %rax
je LBB3_75
## %bb.73:
leaq (,%rcx,4), %rcx
addq %r13, %rcx
xorl %esi, %esi
.p2align 4, 0x90
LBB3_74: ## =>This Inner Loop Header: Depth=1
movl (%rcx,%rsi,4), %edi
addl %edx, %edi
movl %edx, (%rcx,%rsi,4)
incq %rsi
movl %edi, %edx
cmpq %rsi, %rax
jne LBB3_74
LBB3_75:
testl %r10d, %r10d
jle LBB3_84
## %bb.76:
xorl %eax, %eax
jmp LBB3_77
LBB3_81: ## in Loop: Header=BB3_77 Depth=1
movzbl (%r15,%rdx), %edx
LBB3_82: ## in Loop: Header=BB3_77 Depth=1
movslq %edx, %rdx
movslq (%r13,%rdx,4), %rsi
leal 1(%rsi), %edi
movl %edi, (%r13,%rdx,4)
movl %ecx, (%r14,%rsi,4)
LBB3_83: ## in Loop: Header=BB3_77 Depth=1
incq %rax
cmpq %rax, %r11
je LBB3_84
LBB3_77: ## =>This Inner Loop Header: Depth=1
movl (%r14,%rax,4), %ecx
testl %ecx, %ecx
jle LBB3_83
## %bb.78: ## in Loop: Header=BB3_77 Depth=1
decl %ecx
movl %ecx, %edx
movq %rdx, %rsi
shrq $3, %rsi
movl %edx, %edi
andl $7, %edi
movzbl (%rdi,%r9), %ebx
testb %bl, (%r8,%rsi)
jne LBB3_83
## %bb.79: ## in Loop: Header=BB3_77 Depth=1
cmpl $4, %r12d
jne LBB3_81
## %bb.80: ## in Loop: Header=BB3_77 Depth=1
movl (%r15,%rdx,4), %edx
jmp LBB3_82
LBB3_84:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_86
## %bb.85:
movq -120(%rbp), %rax ## 8-byte Reload
leaq 4(,%rax,4), %rsi
movq %r13, %rdi
callq ___bzero
movq -88(%rbp), %r11 ## 8-byte Reload
movq -48(%rbp), %r10 ## 8-byte Reload
leaq _mask(%rip), %r9
movq -64(%rbp), %r8 ## 8-byte Reload
LBB3_86:
testl %r10d, %r10d
jle LBB3_94
## %bb.87:
cmpl $1, %r10d
jne LBB3_97
## %bb.88:
xorl %eax, %eax
LBB3_89:
testb $1, %r11b
je LBB3_94
## %bb.90:
cmpl $4, %r12d
jne LBB3_91
## %bb.92:
movl (%r15,%rax,4), %eax
jmp LBB3_93
LBB3_97:
movl %r11d, %ecx
andl $-2, %ecx
xorl %eax, %eax
jmp LBB3_98
.p2align 4, 0x90
LBB3_103: ## in Loop: Header=BB3_98 Depth=1
movl 4(%r15,%rax,4), %edx
LBB3_104: ## in Loop: Header=BB3_98 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
addq $2, %rax
cmpq %rax, %rcx
je LBB3_89
LBB3_98: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r12d
jne LBB3_100
## %bb.99: ## in Loop: Header=BB3_98 Depth=1
movl (%r15,%rax,4), %edx
jmp LBB3_101
.p2align 4, 0x90
LBB3_100: ## in Loop: Header=BB3_98 Depth=1
movzbl (%r15,%rax), %edx
LBB3_101: ## in Loop: Header=BB3_98 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
cmpl $4, %r12d
je LBB3_103
## %bb.102: ## in Loop: Header=BB3_98 Depth=1
movzbl 1(%r15,%rax), %edx
jmp LBB3_104
LBB3_91:
movzbl (%r15,%rax), %eax
LBB3_93:
cltq
incl (%r13,%rax,4)
LBB3_94:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_110
## %bb.95:
movq -104(%rbp), %rdx ## 8-byte Reload
leaq -1(%rdx), %rcx
movl %edx, %eax
andl $3, %eax
cmpq $3, %rcx
jae LBB3_105
## %bb.96:
xorl %edx, %edx
xorl %ecx, %ecx
jmp LBB3_107
LBB3_105:
movq %rdx, %rsi
## kill: def $esi killed $esi killed $rsi def $rsi
andl $-4, %esi
xorl %edx, %edx
xorl %ecx, %ecx
.p2align 4, 0x90
LBB3_106: ## =>This Inner Loop Header: Depth=1
addl (%r13,%rdx,4), %ecx
movl %ecx, (%r13,%rdx,4)
addl 4(%r13,%rdx,4), %ecx
movl %ecx, 4(%r13,%rdx,4)
addl 8(%r13,%rdx,4), %ecx
movl %ecx, 8(%r13,%rdx,4)
addl 12(%r13,%rdx,4), %ecx
movl %ecx, 12(%r13,%rdx,4)
addq $4, %rdx
cmpq %rdx, %rsi
jne LBB3_106
LBB3_107:
testq %rax, %rax
je LBB3_110
## %bb.108:
leaq (,%rdx,4), %rdx
addq %r13, %rdx
xorl %esi, %esi
.p2align 4, 0x90
LBB3_109: ## =>This Inner Loop Header: Depth=1
addl (%rdx,%rsi,4), %ecx
movl %ecx, (%rdx,%rsi,4)
incq %rsi
cmpq %rsi, %rax
jne LBB3_109
LBB3_110:
testl %r10d, %r10d
jle LBB3_111
## %bb.120:
leaq 1(%r11), %rax
jmp LBB3_121
LBB3_125: ## in Loop: Header=BB3_121 Depth=1
movzbl (%r15,%rdx), %edx
LBB3_126: ## in Loop: Header=BB3_121 Depth=1
movslq %edx, %rdx
movslq (%r13,%rdx,4), %rsi
leaq -1(%rsi), %rdi
movl %edi, (%r13,%rdx,4)
movl %ecx, -4(%r14,%rsi,4)
LBB3_127: ## in Loop: Header=BB3_121 Depth=1
decq %rax
cmpq $1, %rax
jbe LBB3_128
LBB3_121: ## =>This Inner Loop Header: Depth=1
leal -2(%rax), %ecx
movl (%r14,%rcx,4), %ecx
testl %ecx, %ecx
jle LBB3_127
## %bb.122: ## in Loop: Header=BB3_121 Depth=1
decl %ecx
movl %ecx, %edx
movq %rdx, %rsi
shrq $3, %rsi
movl %edx, %edi
andl $7, %edi
movzbl (%rdi,%r9), %ebx
testb %bl, (%r8,%rsi)
je LBB3_127
## %bb.123: ## in Loop: Header=BB3_121 Depth=1
cmpl $4, %r12d
jne LBB3_125
## %bb.124: ## in Loop: Header=BB3_121 Depth=1
movl (%r15,%rdx,4), %edx
jmp LBB3_126
LBB3_128:
movq %r13, %rdi
callq _free
movq -88(%rbp), %r10 ## 8-byte Reload
leaq _mask(%rip), %r8
movq -64(%rbp), %rcx ## 8-byte Reload
xorl %eax, %eax
xorl %r11d, %r11d
movq -48(%rbp), %r9 ## 8-byte Reload
jmp LBB3_129
.p2align 4, 0x90
LBB3_133: ## in Loop: Header=BB3_129 Depth=1
incq %rax
cmpq %rax, %r10
je LBB3_112
LBB3_129: ## =>This Inner Loop Header: Depth=1
movl (%r14,%rax,4), %edi
testl %edi, %edi
jle LBB3_133
## %bb.130: ## in Loop: Header=BB3_129 Depth=1
movq %rdi, %rdx
shrq $3, %rdx
movl %edi, %esi
andl $7, %esi
movzbl (%rsi,%r8), %ebx
testb %bl, (%rcx,%rdx)
je LBB3_133
## %bb.131: ## in Loop: Header=BB3_129 Depth=1
leal -1(%rdi), %edx
movq %rdx, %rsi
shrq $3, %rsi
andl $7, %edx
movzbl (%rdx,%r8), %edx
testb %dl, (%rcx,%rsi)
jne LBB3_133
## %bb.132: ## in Loop: Header=BB3_129 Depth=1
movslq %r11d, %rdx
incl %r11d
movl %edi, (%r14,%rdx,4)
jmp LBB3_133
LBB3_111:
movq %r13, %rdi
callq _free
movq -48(%rbp), %r9 ## 8-byte Reload
movq -64(%rbp), %rcx ## 8-byte Reload
xorl %r11d, %r11d
LBB3_112:
movslq %r11d, %rdx
cmpl %r9d, %r11d
movl %r11d, -68(%rbp) ## 4-byte Spill
movq %rdx, -144(%rbp) ## 8-byte Spill
jge LBB3_114
## %bb.113:
leaq (%r14,%rdx,4), %rdi
movq -112(%rbp), %rax ## 8-byte Reload
## kill: def $eax killed $eax killed $rax def $rax
subl %edx, %eax
leaq 4(,%rax,4), %rdx
movl $255, %esi
callq _memset
movl -68(%rbp), %r11d ## 4-byte Reload
movq -64(%rbp), %rcx ## 8-byte Reload
LBB3_114:
testl %r11d, %r11d
movq %r15, -80(%rbp) ## 8-byte Spill
jle LBB3_115
## %bb.145:
movl %r11d, %eax
movq %rax, -160(%rbp) ## 8-byte Spill
xorl %r9d, %r9d
movl $-1, %r11d
xorl %esi, %esi
movq %r14, -128(%rbp) ## 8-byte Spill
jmp LBB3_146
.p2align 4, 0x90
LBB3_163: ## in Loop: Header=BB3_146 Depth=1
movq -136(%rbp), %rsi ## 8-byte Reload
incl %esi
movl %r10d, %r11d
movq -128(%rbp), %r14 ## 8-byte Reload
LBB3_164: ## in Loop: Header=BB3_146 Depth=1
sarl %r10d
leal -1(%rsi), %eax
addl -68(%rbp), %r10d ## 4-byte Folded Reload
movslq %r10d, %rdx
movl %eax, (%r14,%rdx,4)
incq %r9
cmpq -160(%rbp), %r9 ## 8-byte Folded Reload
je LBB3_116
LBB3_146: ## =>This Loop Header: Depth=1
## Child Loop BB3_149 Depth 2
movl (%r14,%r9,4), %r10d
cmpl $0, -48(%rbp) ## 4-byte Folded Reload
jle LBB3_164
## %bb.147: ## in Loop: Header=BB3_146 Depth=1
movq %rsi, -136(%rbp) ## 8-byte Spill
cmpl $-1, %r11d
je LBB3_163
## %bb.148: ## in Loop: Header=BB3_146 Depth=1
xorl %r15d, %r15d
jmp LBB3_149
.p2align 4, 0x90
LBB3_162: ## in Loop: Header=BB3_149 Depth=2
incl %r15d
cmpl -48(%rbp), %r15d ## 4-byte Folded Reload
jge LBB3_158
LBB3_149: ## Parent Loop BB3_146 Depth=1
## => This Inner Loop Header: Depth=2
leal (%r15,%r10), %edi
movslq %edi, %rax
cmpl $4, %r12d
jne LBB3_151
## %bb.150: ## in Loop: Header=BB3_149 Depth=2
movq -80(%rbp), %rsi ## 8-byte Reload
movl (%rsi,%rax,4), %eax
leal (%r15,%r11), %edx
movslq %edx, %rdx
movl (%rsi,%rdx,4), %edx
cmpl %edx, %eax
je LBB3_153
jmp LBB3_163
.p2align 4, 0x90
LBB3_151: ## in Loop: Header=BB3_149 Depth=2
movq -80(%rbp), %rsi ## 8-byte Reload
movzbl (%rsi,%rax), %eax
leal (%r15,%r11), %edx
movslq %edx, %rdx
movzbl (%rsi,%rdx), %edx
cmpl %edx, %eax
jne LBB3_163
LBB3_153: ## in Loop: Header=BB3_149 Depth=2
leal 7(%rdi), %eax
testl %edi, %edi
cmovnsl %edi, %eax
movl %eax, %edx
sarl $3, %edx
movslq %edx, %rbx
andl $-8, %eax
movl %edi, %edx
subl %eax, %edx
movslq %edx, %rax
leaq _mask(%rip), %r14
movzbl (%rax,%r14), %edx
andb (%rcx,%rbx), %dl
sete %r13b
movl %r15d, %esi
addl %r11d, %esi
leal 7(%r15,%r11), %r8d
cmovnsl %esi, %r8d
movl %r8d, %eax
sarl $3, %eax
movl %r12d, %ebx
movslq %eax, %r12
andl $-8, %r8d
movl %esi, %eax
subl %r8d, %eax
movq -64(%rbp), %rcx ## 8-byte Reload
cltq
movzbl (%rax,%r14), %eax
andb (%rcx,%r12), %al
movl %ebx, %r12d
setne %bl
cmpb %bl, %r13b
je LBB3_163
## %bb.154: ## in Loop: Header=BB3_149 Depth=2
testl %r15d, %r15d
je LBB3_162
## %bb.155: ## in Loop: Header=BB3_149 Depth=2
testl %edi, %edi
jle LBB3_159
## %bb.156: ## in Loop: Header=BB3_149 Depth=2
testb %dl, %dl
je LBB3_159
## %bb.157: ## in Loop: Header=BB3_149 Depth=2
decl %edi
movq %rdi, %rdx
shrq $3, %rdx
andl $7, %edi
leaq _mask(%rip), %rbx
movzbl (%rdi,%rbx), %ebx
testb %bl, (%rcx,%rdx)
je LBB3_158
LBB3_159: ## in Loop: Header=BB3_149 Depth=2
testl %esi, %esi
jle LBB3_162
## %bb.160: ## in Loop: Header=BB3_149 Depth=2
testb %al, %al
je LBB3_162
## %bb.161: ## in Loop: Header=BB3_149 Depth=2
decl %esi
movq %rsi, %rax
shrq $3, %rax
andl $7, %esi
leaq _mask(%rip), %rdx
movzbl (%rsi,%rdx), %edx
testb %dl, (%rcx,%rax)
jne LBB3_162
LBB3_158: ## in Loop: Header=BB3_146 Depth=1
movq -128(%rbp), %r14 ## 8-byte Reload
movq -136(%rbp), %rsi ## 8-byte Reload
jmp LBB3_164
LBB3_115:
xorl %esi, %esi
LBB3_116:
movq %rsi, %r11
movq -48(%rbp), %rbx ## 8-byte Reload
movslq %ebx, %r9
movl -68(%rbp), %edx ## 4-byte Reload
cmpl %ebx, %edx
movq -144(%rbp), %r10 ## 8-byte Reload
jge LBB3_141
## %bb.117:
## kill: def $ebx killed $ebx killed $rbx def $rbx
subl %edx, %ebx
movq %r10, %rdi
notq %rdi
movq %r9, %rax
movq -112(%rbp), %rcx ## 8-byte Reload
movl %ecx, %esi
testb $1, %bl
je LBB3_135
## %bb.118:
leaq -1(%r9), %rax
movl -4(%r14,%r9,4), %r8d
testl %r8d, %r8d
js LBB3_119
## %bb.134:
movq -112(%rbp), %rcx ## 8-byte Reload
leal -1(%rcx), %esi
movslq %ecx, %rbx
movl %r8d, (%r14,%rbx,4)
LBB3_135:
addq %r9, %rdi
jne LBB3_136
LBB3_141:
leaq (%r14,%r9,4), %r15
leaq (,%r10,4), %rax
subq %rax, %r15
cmpl %edx, %r11d
jge LBB3_142
## %bb.165:
decl %r11d
movq %r15, %rdi
movq %r11, %rcx
movq %r14, %rsi
## kill: def $ecx killed $ecx killed $rcx
movl $4, %r8d
callq _SA_IS
movq -152(%rbp), %rdi ## 8-byte Reload
jmp LBB3_170
LBB3_142:
testl %edx, %edx
movq -152(%rbp), %rdi ## 8-byte Reload
jle LBB3_170
## %bb.143:
movl -68(%rbp), %r8d ## 4-byte Reload
leaq -1(%r8), %rsi
movl %r8d, %ecx
andl $3, %ecx
cmpq $3, %rsi
jae LBB3_166
## %bb.144:
xorl %eax, %eax
jmp LBB3_168
LBB3_166:
andl $-4, %r8d
subq -144(%rbp), %r9 ## 8-byte Folded Reload
leaq (%r14,%r9,4), %rsi
addq $12, %rsi
xorl %eax, %eax
.p2align 4, 0x90
LBB3_167: ## =>This Inner Loop Header: Depth=1
movslq -12(%rsi,%rax,4), %rdx
movl %eax, (%r14,%rdx,4)
movslq -8(%rsi,%rax,4), %rbx
leal 1(%rax), %edx
movl %edx, (%r14,%rbx,4)
movslq -4(%rsi,%rax,4), %rdx
leal 2(%rax), %ebx
movl %ebx, (%r14,%rdx,4)
movslq (%rsi,%rax,4), %rdx
leal 3(%rax), %ebx
movl %ebx, (%r14,%rdx,4)
addq $4, %rax
cmpq %r8, %rax
jne LBB3_167
LBB3_168:
testq %rcx, %rcx
je LBB3_170
.p2align 4, 0x90
LBB3_169: ## =>This Inner Loop Header: Depth=1
movslq (%r15,%rax,4), %rdx
movl %eax, (%r14,%rdx,4)
incq %rax
decq %rcx
jne LBB3_169
LBB3_170:
callq _malloc
movq %rax, %r13
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_172
## %bb.171:
movq -120(%rbp), %rax ## 8-byte Reload
leaq 4(,%rax,4), %rsi
movq %r13, %rdi
callq ___bzero
LBB3_172:
movq -48(%rbp), %r10 ## 8-byte Reload
testl %r10d, %r10d
movq -64(%rbp), %r8 ## 8-byte Reload
leaq _mask(%rip), %r9
movq -88(%rbp), %rsi ## 8-byte Reload
movl -68(%rbp), %ebx ## 4-byte Reload
jle LBB3_180
## %bb.173:
cmpl $1, %r10d
jne LBB3_183
## %bb.174:
xorl %eax, %eax
LBB3_175:
testb $1, %sil
je LBB3_180
## %bb.176:
cmpl $4, %r12d
jne LBB3_177
## %bb.178:
movq -80(%rbp), %rcx ## 8-byte Reload
movl (%rcx,%rax,4), %eax
jmp LBB3_179
LBB3_183:
movl %esi, %ecx
andl $-2, %ecx
xorl %eax, %eax
jmp LBB3_184
.p2align 4, 0x90
LBB3_189: ## in Loop: Header=BB3_184 Depth=1
movq -80(%rbp), %rdx ## 8-byte Reload
movl 4(%rdx,%rax,4), %edx
LBB3_190: ## in Loop: Header=BB3_184 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
addq $2, %rax
cmpq %rax, %rcx
je LBB3_175
LBB3_184: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r12d
jne LBB3_186
## %bb.185: ## in Loop: Header=BB3_184 Depth=1
movq -80(%rbp), %rdx ## 8-byte Reload
movl (%rdx,%rax,4), %edx
jmp LBB3_187
.p2align 4, 0x90
LBB3_186: ## in Loop: Header=BB3_184 Depth=1
movq -80(%rbp), %rdx ## 8-byte Reload
movzbl (%rdx,%rax), %edx
LBB3_187: ## in Loop: Header=BB3_184 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
cmpl $4, %r12d
je LBB3_189
## %bb.188: ## in Loop: Header=BB3_184 Depth=1
movq -80(%rbp), %rdx ## 8-byte Reload
movzbl 1(%rdx,%rax), %edx
jmp LBB3_190
LBB3_177:
movq -80(%rbp), %rcx ## 8-byte Reload
movzbl (%rcx,%rax), %eax
LBB3_179:
cltq
incl (%r13,%rax,4)
LBB3_180:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_196
## %bb.181:
movq -104(%rbp), %rdx ## 8-byte Reload
leaq -1(%rdx), %rcx
movl %edx, %eax
andl $3, %eax
cmpq $3, %rcx
jae LBB3_191
## %bb.182:
xorl %edx, %edx
xorl %ecx, %ecx
jmp LBB3_193
LBB3_191:
movq %rdx, %rsi
## kill: def $esi killed $esi killed $rsi def $rsi
andl $-4, %esi
xorl %edx, %edx
xorl %ecx, %ecx
.p2align 4, 0x90
LBB3_192: ## =>This Inner Loop Header: Depth=1
addl (%r13,%rdx,4), %ecx
movl %ecx, (%r13,%rdx,4)
addl 4(%r13,%rdx,4), %ecx
movl %ecx, 4(%r13,%rdx,4)
addl 8(%r13,%rdx,4), %ecx
movl %ecx, 8(%r13,%rdx,4)
addl 12(%r13,%rdx,4), %ecx
movl %ecx, 12(%r13,%rdx,4)
addq $4, %rdx
cmpq %rdx, %rsi
jne LBB3_192
LBB3_193:
testq %rax, %rax
je LBB3_196
## %bb.194:
leaq (,%rdx,4), %rdx
addq %r13, %rdx
xorl %esi, %esi
.p2align 4, 0x90
LBB3_195: ## =>This Inner Loop Header: Depth=1
addl (%rdx,%rsi,4), %ecx
movl %ecx, (%rdx,%rsi,4)
incq %rsi
cmpq %rsi, %rax
jne LBB3_195
LBB3_196:
cmpb $0, -92(%rbp) ## 1-byte Folded Reload
je LBB3_202
## %bb.197:
xorl %eax, %eax
movl $1, %ecx
jmp LBB3_198
.p2align 4, 0x90
LBB3_201: ## in Loop: Header=BB3_198 Depth=1
incl %ecx
cmpl %ecx, %r10d
je LBB3_202
LBB3_198: ## =>This Inner Loop Header: Depth=1
movl %ecx, %edx
movq %rdx, %rsi
shrq $3, %rsi
andl $7, %edx
movzbl (%rdx,%r9), %edx
testb %dl, (%r8,%rsi)
je LBB3_201
## %bb.199: ## in Loop: Header=BB3_198 Depth=1
leal -1(%rcx), %edx
movq %rdx, %rsi
shrq $3, %rsi
andl $7, %edx
movzbl (%rdx,%r9), %edx
testb %dl, (%r8,%rsi)
jne LBB3_201
## %bb.200: ## in Loop: Header=BB3_198 Depth=1
movslq %eax, %rdx
incl %eax
movl %ecx, (%r15,%rdx,4)
jmp LBB3_201
LBB3_202:
testl %ebx, %ebx
jle LBB3_208
## %bb.203:
movl %ebx, %ecx
leaq -1(%rcx), %rdx
movl %ecx, %eax
andl $3, %eax
cmpq $3, %rdx
jae LBB3_214
## %bb.204:
xorl %edx, %edx
jmp LBB3_205
LBB3_214:
andl $-4, %ecx
xorl %edx, %edx
.p2align 4, 0x90
LBB3_215: ## =>This Inner Loop Header: Depth=1
movslq (%r14,%rdx,4), %rsi
movl (%r15,%rsi,4), %esi
movl %esi, (%r14,%rdx,4)
movslq 4(%r14,%rdx,4), %rsi
movl (%r15,%rsi,4), %esi
movl %esi, 4(%r14,%rdx,4)
movslq 8(%r14,%rdx,4), %rsi
movl (%r15,%rsi,4), %esi
movl %esi, 8(%r14,%rdx,4)
movslq 12(%r14,%rdx,4), %rsi
movl (%r15,%rsi,4), %esi
movl %esi, 12(%r14,%rdx,4)
addq $4, %rdx
cmpq %rdx, %rcx
jne LBB3_215
LBB3_205:
testq %rax, %rax
je LBB3_208
## %bb.206:
leaq (%r14,%rdx,4), %rcx
xorl %edx, %edx
.p2align 4, 0x90
LBB3_207: ## =>This Inner Loop Header: Depth=1
movslq (%rcx,%rdx,4), %rsi
movl (%r15,%rsi,4), %esi
movl %esi, (%rcx,%rdx,4)
incq %rdx
cmpq %rdx, %rax
jne LBB3_207
LBB3_208:
cmpl %r10d, %ebx
jge LBB3_210
## %bb.209:
movq -144(%rbp), %rax ## 8-byte Reload
leaq (%r14,%rax,4), %rdi
movq -112(%rbp), %rax ## 8-byte Reload
subl %ebx, %eax
leaq 4(,%rax,4), %rdx
movl $255, %esi
callq _memset
movl -68(%rbp), %ebx ## 4-byte Reload
movq -48(%rbp), %r10 ## 8-byte Reload
leaq _mask(%rip), %r9
movq -64(%rbp), %r8 ## 8-byte Reload
LBB3_210:
testl %ebx, %ebx
movq -80(%rbp), %r15 ## 8-byte Reload
jle LBB3_218
## %bb.211:
movl %ebx, %eax
incq %rax
jmp LBB3_212
.p2align 4, 0x90
LBB3_216: ## in Loop: Header=BB3_212 Depth=1
movzbl (%r15,%rdx), %edx
LBB3_217: ## in Loop: Header=BB3_212 Depth=1
movslq %edx, %rdx
movslq (%r13,%rdx,4), %rsi
leaq -1(%rsi), %rdi
movl %edi, (%r13,%rdx,4)
movl %ecx, -4(%r14,%rsi,4)
decq %rax
cmpq $1, %rax
jbe LBB3_218
LBB3_212: ## =>This Inner Loop Header: Depth=1
leal -2(%rax), %edx
movl (%r14,%rdx,4), %ecx
movl $-1, (%r14,%rdx,4)
movslq %ecx, %rdx
cmpl $4, %r12d
jne LBB3_216
## %bb.213: ## in Loop: Header=BB3_212 Depth=1
movl (%r15,%rdx,4), %edx
jmp LBB3_217
LBB3_218:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_220
## %bb.219:
movq -120(%rbp), %rax ## 8-byte Reload
leaq 4(,%rax,4), %rsi
movq %r13, %rdi
callq ___bzero
movq -48(%rbp), %r10 ## 8-byte Reload
leaq _mask(%rip), %r9
movq -64(%rbp), %r8 ## 8-byte Reload
LBB3_220:
testl %r10d, %r10d
movq -88(%rbp), %r11 ## 8-byte Reload
jle LBB3_228
## %bb.221:
cmpl $1, %r10d
jne LBB3_231
## %bb.222:
xorl %eax, %eax
LBB3_223:
testb $1, %r11b
je LBB3_228
## %bb.224:
cmpl $4, %r12d
jne LBB3_225
## %bb.226:
movl (%r15,%rax,4), %eax
jmp LBB3_227
LBB3_231:
movl %r11d, %ecx
andl $-2, %ecx
xorl %eax, %eax
jmp LBB3_232
.p2align 4, 0x90
LBB3_237: ## in Loop: Header=BB3_232 Depth=1
movl 4(%r15,%rax,4), %edx
LBB3_238: ## in Loop: Header=BB3_232 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
addq $2, %rax
cmpq %rax, %rcx
je LBB3_223
LBB3_232: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r12d
jne LBB3_234
## %bb.233: ## in Loop: Header=BB3_232 Depth=1
movl (%r15,%rax,4), %edx
jmp LBB3_235
.p2align 4, 0x90
LBB3_234: ## in Loop: Header=BB3_232 Depth=1
movzbl (%r15,%rax), %edx
LBB3_235: ## in Loop: Header=BB3_232 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
cmpl $4, %r12d
je LBB3_237
## %bb.236: ## in Loop: Header=BB3_232 Depth=1
movzbl 1(%r15,%rax), %edx
jmp LBB3_238
LBB3_225:
movzbl (%r15,%rax), %eax
LBB3_227:
cltq
incl (%r13,%rax,4)
LBB3_228:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_244
## %bb.229:
movq -104(%rbp), %rdx ## 8-byte Reload
leaq -1(%rdx), %rcx
movl %edx, %eax
andl $3, %eax
cmpq $3, %rcx
jae LBB3_239
## %bb.230:
xorl %ecx, %ecx
xorl %edx, %edx
jmp LBB3_241
LBB3_239:
movq %rdx, %rsi
## kill: def $esi killed $esi killed $rsi def $rsi
andl $-4, %esi
xorl %ecx, %ecx
xorl %edx, %edx
.p2align 4, 0x90
LBB3_240: ## =>This Inner Loop Header: Depth=1
movl (%r13,%rcx,4), %edi
addl %edx, %edi
movl %edx, (%r13,%rcx,4)
movl 4(%r13,%rcx,4), %edx
addl %edi, %edx
movl %edi, 4(%r13,%rcx,4)
movl 8(%r13,%rcx,4), %edi
addl %edx, %edi
movl %edx, 8(%r13,%rcx,4)
movl 12(%r13,%rcx,4), %edx
addl %edi, %edx
movl %edi, 12(%r13,%rcx,4)
addq $4, %rcx
cmpq %rcx, %rsi
jne LBB3_240
LBB3_241:
testq %rax, %rax
je LBB3_244
## %bb.242:
leaq (,%rcx,4), %rcx
addq %r13, %rcx
xorl %esi, %esi
.p2align 4, 0x90
LBB3_243: ## =>This Inner Loop Header: Depth=1
movl (%rcx,%rsi,4), %edi
addl %edx, %edi
movl %edx, (%rcx,%rsi,4)
incq %rsi
movl %edi, %edx
cmpq %rsi, %rax
jne LBB3_243
LBB3_244:
testl %r10d, %r10d
jle LBB3_253
## %bb.245:
xorl %eax, %eax
jmp LBB3_246
LBB3_250: ## in Loop: Header=BB3_246 Depth=1
movzbl (%r15,%rdx), %edx
LBB3_251: ## in Loop: Header=BB3_246 Depth=1
movslq %edx, %rdx
movslq (%r13,%rdx,4), %rsi
leal 1(%rsi), %edi
movl %edi, (%r13,%rdx,4)
movl %ecx, (%r14,%rsi,4)
LBB3_252: ## in Loop: Header=BB3_246 Depth=1
incq %rax
cmpq %rax, %r11
je LBB3_253
LBB3_246: ## =>This Inner Loop Header: Depth=1
movl (%r14,%rax,4), %ecx
testl %ecx, %ecx
jle LBB3_252
## %bb.247: ## in Loop: Header=BB3_246 Depth=1
decl %ecx
movl %ecx, %edx
movq %rdx, %rsi
shrq $3, %rsi
movl %edx, %edi
andl $7, %edi
movzbl (%rdi,%r9), %ebx
testb %bl, (%r8,%rsi)
jne LBB3_252
## %bb.248: ## in Loop: Header=BB3_246 Depth=1
cmpl $4, %r12d
jne LBB3_250
## %bb.249: ## in Loop: Header=BB3_246 Depth=1
movl (%r15,%rdx,4), %edx
jmp LBB3_251
LBB3_253:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
js LBB3_255
## %bb.254:
movq -120(%rbp), %rax ## 8-byte Reload
leaq 4(,%rax,4), %rsi
movq %r13, %rdi
callq ___bzero
movq -88(%rbp), %r11 ## 8-byte Reload
movq -48(%rbp), %r10 ## 8-byte Reload
leaq _mask(%rip), %r9
LBB3_255:
testl %r10d, %r10d
movq -104(%rbp), %rsi ## 8-byte Reload
jle LBB3_263
## %bb.256:
cmpl $1, %r10d
jne LBB3_266
## %bb.257:
xorl %eax, %eax
LBB3_258:
testb $1, %r11b
je LBB3_263
## %bb.259:
cmpl $4, %r12d
jne LBB3_260
## %bb.261:
movl (%r15,%rax,4), %eax
jmp LBB3_262
LBB3_266:
movl %r11d, %ecx
andl $-2, %ecx
xorl %eax, %eax
jmp LBB3_267
.p2align 4, 0x90
LBB3_272: ## in Loop: Header=BB3_267 Depth=1
movl 4(%r15,%rax,4), %edx
LBB3_273: ## in Loop: Header=BB3_267 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
addq $2, %rax
cmpq %rax, %rcx
je LBB3_258
LBB3_267: ## =>This Inner Loop Header: Depth=1
cmpl $4, %r12d
jne LBB3_269
## %bb.268: ## in Loop: Header=BB3_267 Depth=1
movl (%r15,%rax,4), %edx
jmp LBB3_270
.p2align 4, 0x90
LBB3_269: ## in Loop: Header=BB3_267 Depth=1
movzbl (%r15,%rax), %edx
LBB3_270: ## in Loop: Header=BB3_267 Depth=1
movslq %edx, %rdx
incl (%r13,%rdx,4)
cmpl $4, %r12d
je LBB3_272
## %bb.271: ## in Loop: Header=BB3_267 Depth=1
movzbl 1(%r15,%rax), %edx
jmp LBB3_273
LBB3_260:
movzbl (%r15,%rax), %eax
LBB3_262:
cltq
incl (%r13,%rax,4)
LBB3_263:
cmpl $0, -56(%rbp) ## 4-byte Folded Reload
movq -64(%rbp), %r8 ## 8-byte Reload
js LBB3_279
## %bb.264:
leaq -1(%rsi), %rcx
movl %esi, %eax
andl $3, %eax
cmpq $3, %rcx
jae LBB3_274
## %bb.265:
xorl %edx, %edx
xorl %ecx, %ecx
jmp LBB3_276
LBB3_274:
andl $-4, %esi
xorl %edx, %edx
xorl %ecx, %ecx
.p2align 4, 0x90
LBB3_275: ## =>This Inner Loop Header: Depth=1
addl (%r13,%rdx,4), %ecx
movl %ecx, (%r13,%rdx,4)
addl 4(%r13,%rdx,4), %ecx
movl %ecx, 4(%r13,%rdx,4)
addl 8(%r13,%rdx,4), %ecx
movl %ecx, 8(%r13,%rdx,4)
addl 12(%r13,%rdx,4), %ecx
movl %ecx, 12(%r13,%rdx,4)
addq $4, %rdx
cmpq %rdx, %rsi
jne LBB3_275
LBB3_276:
testq %rax, %rax
je LBB3_279
## %bb.277:
leaq (,%rdx,4), %rdx
addq %r13, %rdx
xorl %esi, %esi
.p2align 4, 0x90
LBB3_278: ## =>This Inner Loop Header: Depth=1
addl (%rdx,%rsi,4), %ecx
movl %ecx, (%rdx,%rsi,4)
incq %rsi
cmpq %rsi, %rax
jne LBB3_278
LBB3_279:
testl %r10d, %r10d
jle LBB3_288
## %bb.280:
incq %r11
jmp LBB3_281
LBB3_285: ## in Loop: Header=BB3_281 Depth=1
movzbl (%r15,%rcx), %ecx
LBB3_286: ## in Loop: Header=BB3_281 Depth=1
movslq %ecx, %rcx
movslq (%r13,%rcx,4), %rdx
leaq -1(%rdx), %rsi
movl %esi, (%r13,%rcx,4)
movl %eax, -4(%r14,%rdx,4)
LBB3_287: ## in Loop: Header=BB3_281 Depth=1
decq %r11
cmpq $1, %r11
jbe LBB3_288
LBB3_281: ## =>This Inner Loop Header: Depth=1
leal -2(%r11), %eax
movl (%r14,%rax,4), %eax
testl %eax, %eax
jle LBB3_287
## %bb.282: ## in Loop: Header=BB3_281 Depth=1
decl %eax
movl %eax, %ecx
movq %rcx, %rdx
shrq $3, %rdx
movl %ecx, %esi
andl $7, %esi
movzbl (%rsi,%r9), %ebx
testb %bl, (%r8,%rdx)
je LBB3_287
## %bb.283: ## in Loop: Header=BB3_281 Depth=1
cmpl $4, %r12d
jne LBB3_285
## %bb.284: ## in Loop: Header=BB3_281 Depth=1
movl (%r15,%rcx,4), %ecx
jmp LBB3_286
LBB3_288:
movq %r13, %rdi
movq %r8, %rbx
callq _free
movq %rbx, %rdi
addq $120, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
jmp _free ## TAILCALL
LBB3_119:
movq -112(%rbp), %rcx ## 8-byte Reload
movl %ecx, %esi
addq %r9, %rdi
jne LBB3_136
jmp LBB3_141
.p2align 4, 0x90
LBB3_140: ## in Loop: Header=BB3_136 Depth=1
cmpq %r10, %rax
jle LBB3_141
LBB3_136: ## =>This Inner Loop Header: Depth=1
movl -4(%r14,%rax,4), %edi
testl %edi, %edi
js LBB3_138
## %bb.137: ## in Loop: Header=BB3_136 Depth=1
movslq %esi, %rbx
decl %esi
movl %edi, (%r14,%rbx,4)
LBB3_138: ## in Loop: Header=BB3_136 Depth=1
movl -8(%r14,%rax,4), %edi
addq $-2, %rax
testl %edi, %edi
js LBB3_140
## %bb.139: ## in Loop: Header=BB3_136 Depth=1
movslq %esi, %rbx
decl %esi
movl %edi, (%r14,%rbx,4)
jmp LBB3_140
.cfi_endproc
## -- End function
.globl _main ## -- Begin function main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl $284, %edi ## imm = 0x11C
callq _malloc
movq %rax, %r15
leaq L_.str(%rip), %rdi
movq %rax, %rsi
movl $71, %edx
movl $256, %ecx ## imm = 0x100
movl $1, %r8d
callq _SA_IS
leaq L_str(%rip), %rdi
callq _puts
leaq L_.str.2(%rip), %r14
xorl %ebx, %ebx
.p2align 4, 0x90
LBB4_1: ## =>This Inner Loop Header: Depth=1
movl (%r15,%rbx,4), %esi
movq %r14, %rdi
xorl %eax, %eax
callq _printf
incq %rbx
cmpq $71, %rbx
jne LBB4_1
## %bb.2:
movl $10, %edi
callq _putchar
xorl %eax, %eax
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.section __DATA,__data
.globl _mask ## @mask
_mask:
.ascii "\200@ \020\b\004\002\001"
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "CCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTA$"
L_.str.2: ## @.str.2
.asciz "%d "
L_str: ## @str
.asciz "done"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _getBuckets ; -- Begin function getBuckets
.p2align 2
_getBuckets: ; @getBuckets
.cfi_startproc
; %bb.0:
stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x19, x5
mov x22, x4
mov x21, x3
mov x24, x2
mov x20, x1
mov x23, x0
tbnz w3, #31, LBB0_2
; %bb.1:
mov w8, w21
lsl x8, x8, #2
add x1, x8, #4
mov x0, x20
bl _bzero
LBB0_2:
cmp w24, #1
b.lt LBB0_8
; %bb.3:
mov x8, #0
mov w9, w24
b LBB0_6
LBB0_4: ; in Loop: Header=BB0_6 Depth=1
ldrb w10, [x23, x8]
LBB0_5: ; in Loop: Header=BB0_6 Depth=1
sbfiz x10, x10, #2, #32
ldr w11, [x20, x10]
add w11, w11, #1
str w11, [x20, x10]
add x8, x8, #1
cmp x9, x8
b.eq LBB0_8
LBB0_6: ; =>This Inner Loop Header: Depth=1
cmp w22, #4
b.ne LBB0_4
; %bb.7: ; in Loop: Header=BB0_6 Depth=1
ldr w10, [x23, x8, lsl #2]
b LBB0_5
LBB0_8:
tbnz w21, #31, LBB0_11
; %bb.9:
mov w9, #0
add w8, w21, #1
LBB0_10: ; =>This Inner Loop Header: Depth=1
ldr w10, [x20]
add w10, w10, w9
cmp w19, #0
csel w9, w9, w10, eq
str w9, [x20], #4
mov x9, x10
subs x8, x8, #1
b.ne LBB0_10
LBB0_11:
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
ldp x24, x23, [sp], #64 ; 16-byte Folded Reload
ret
.cfi_endproc
; -- End function
.globl _induceSAl ; -- Begin function induceSAl
.p2align 2
_induceSAl: ; @induceSAl
.cfi_startproc
; %bb.0:
stp x26, x25, [sp, #-80]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 80
stp x24, x23, [sp, #16] ; 16-byte Folded Spill
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
mov x24, x7
mov x19, x6
mov x26, x5
mov x25, x4
mov x20, x3
mov x21, x2
mov x22, x1
mov x23, x0
tbnz w5, #31, LBB1_2
; %bb.1:
mov w8, w26
lsl x8, x8, #2
add x1, x8, #4
mov x0, x20
bl _bzero
LBB1_2:
mov w8, w25
cmp w25, #1
b.lt LBB1_8
; %bb.3:
mov x9, #0
b LBB1_6
LBB1_4: ; in Loop: Header=BB1_6 Depth=1
ldrb w10, [x21, x9]
LBB1_5: ; in Loop: Header=BB1_6 Depth=1
sbfiz x10, x10, #2, #32
ldr w11, [x20, x10]
add w11, w11, #1
str w11, [x20, x10]
add x9, x9, #1
cmp x8, x9
b.eq LBB1_8
LBB1_6: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB1_4
; %bb.7: ; in Loop: Header=BB1_6 Depth=1
ldr w10, [x21, x9, lsl #2]
b LBB1_5
LBB1_8:
tbnz w26, #31, LBB1_11
; %bb.9:
mov w11, #0
add w9, w26, #1
mov x10, x20
LBB1_10: ; =>This Inner Loop Header: Depth=1
ldr w12, [x10]
add w12, w12, w11
cmp w24, #0
csel w11, w11, w12, eq
str w11, [x10], #4
mov x11, x12
subs x9, x9, #1
b.ne LBB1_10
LBB1_11:
cmp w25, #1
b.lt LBB1_20
; %bb.12:
Lloh0:
adrp x9, _mask@PAGE
Lloh1:
add x9, x9, _mask@PAGEOFF
mov x10, x22
b LBB1_16
LBB1_13: ; in Loop: Header=BB1_16 Depth=1
ldrb w12, [x21, x11]
LBB1_14: ; in Loop: Header=BB1_16 Depth=1
sbfiz x12, x12, #2, #32
ldrsw x13, [x20, x12]
add w14, w13, #1
str w14, [x20, x12]
str w11, [x22, x13, lsl #2]
LBB1_15: ; in Loop: Header=BB1_16 Depth=1
add x10, x10, #4
subs x8, x8, #1
b.eq LBB1_20
LBB1_16: ; =>This Inner Loop Header: Depth=1
ldr w11, [x10]
subs w11, w11, #1
b.lt LBB1_15
; %bb.17: ; in Loop: Header=BB1_16 Depth=1
lsr x12, x11, #3
ldrb w12, [x23, x12]
and x13, x11, #0x7
ldrb w13, [x9, x13]
tst w13, w12
b.ne LBB1_15
; %bb.18: ; in Loop: Header=BB1_16 Depth=1
cmp w19, #4
b.ne LBB1_13
; %bb.19: ; in Loop: Header=BB1_16 Depth=1
ldr w12, [x21, x11, lsl #2]
b LBB1_14
LBB1_20:
ldp x29, x30, [sp, #64] ; 16-byte Folded Reload
ldp x20, x19, [sp, #48] ; 16-byte Folded Reload
ldp x22, x21, [sp, #32] ; 16-byte Folded Reload
ldp x24, x23, [sp, #16] ; 16-byte Folded Reload
ldp x26, x25, [sp], #80 ; 16-byte Folded Reload
ret
.loh AdrpAdd Lloh0, Lloh1
.cfi_endproc
; -- End function
.globl _induceSAs ; -- Begin function induceSAs
.p2align 2
_induceSAs: ; @induceSAs
.cfi_startproc
; %bb.0:
stp x26, x25, [sp, #-80]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 80
stp x24, x23, [sp, #16] ; 16-byte Folded Spill
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
mov x24, x7
mov x19, x6
mov x26, x5
mov x25, x4
mov x20, x3
mov x21, x2
mov x22, x1
mov x23, x0
tbnz w5, #31, LBB2_2
; %bb.1:
mov w8, w26
lsl x8, x8, #2
add x1, x8, #4
mov x0, x20
bl _bzero
LBB2_2:
mov w8, w25
cmp w25, #1
b.lt LBB2_8
; %bb.3:
mov x9, #0
b LBB2_6
LBB2_4: ; in Loop: Header=BB2_6 Depth=1
ldrb w10, [x21, x9]
LBB2_5: ; in Loop: Header=BB2_6 Depth=1
sbfiz x10, x10, #2, #32
ldr w11, [x20, x10]
add w11, w11, #1
str w11, [x20, x10]
add x9, x9, #1
cmp x8, x9
b.eq LBB2_8
LBB2_6: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB2_4
; %bb.7: ; in Loop: Header=BB2_6 Depth=1
ldr w10, [x21, x9, lsl #2]
b LBB2_5
LBB2_8:
tbnz w26, #31, LBB2_11
; %bb.9:
mov w11, #0
add w9, w26, #1
mov x10, x20
LBB2_10: ; =>This Inner Loop Header: Depth=1
ldr w12, [x10]
add w12, w12, w11
cmp w24, #0
csel w11, w11, w12, eq
str w11, [x10], #4
mov x11, x12
subs x9, x9, #1
b.ne LBB2_10
LBB2_11:
cmp w25, #1
b.lt LBB2_20
; %bb.12:
add x8, x8, #1
Lloh2:
adrp x9, _mask@PAGE
Lloh3:
add x9, x9, _mask@PAGEOFF
b LBB2_16
LBB2_13: ; in Loop: Header=BB2_16 Depth=1
ldrb w11, [x21, x10]
LBB2_14: ; in Loop: Header=BB2_16 Depth=1
sbfiz x11, x11, #2, #32
ldrsw x12, [x20, x11]
sub x12, x12, #1
str w12, [x20, x11]
str w10, [x22, x12, lsl #2]
LBB2_15: ; in Loop: Header=BB2_16 Depth=1
sub x8, x8, #1
cmp x8, #1
b.ls LBB2_20
LBB2_16: ; =>This Inner Loop Header: Depth=1
sub w10, w8, #2
ldr w10, [x22, w10, uxtw #2]
subs w10, w10, #1
b.lt LBB2_15
; %bb.17: ; in Loop: Header=BB2_16 Depth=1
lsr x11, x10, #3
ldrb w11, [x23, x11]
and x12, x10, #0x7
ldrb w12, [x9, x12]
tst w12, w11
b.eq LBB2_15
; %bb.18: ; in Loop: Header=BB2_16 Depth=1
cmp w19, #4
b.ne LBB2_13
; %bb.19: ; in Loop: Header=BB2_16 Depth=1
ldr w11, [x21, x10, lsl #2]
b LBB2_14
LBB2_20:
ldp x29, x30, [sp, #64] ; 16-byte Folded Reload
ldp x20, x19, [sp, #48] ; 16-byte Folded Reload
ldp x22, x21, [sp, #32] ; 16-byte Folded Reload
ldp x24, x23, [sp, #16] ; 16-byte Folded Reload
ldp x26, x25, [sp], #80 ; 16-byte Folded Reload
ret
.loh AdrpAdd Lloh2, Lloh3
.cfi_endproc
; -- End function
.globl _SA_IS ; -- Begin function SA_IS
.p2align 2
_SA_IS: ; @SA_IS
.cfi_startproc
; %bb.0:
sub sp, sp, #128
.cfi_def_cfa_offset 128
stp x28, x27, [sp, #32] ; 16-byte Folded Spill
stp x26, x25, [sp, #48] ; 16-byte Folded Spill
stp x24, x23, [sp, #64] ; 16-byte Folded Spill
stp x22, x21, [sp, #80] ; 16-byte Folded Spill
stp x20, x19, [sp, #96] ; 16-byte Folded Spill
stp x29, x30, [sp, #112] ; 16-byte Folded Spill
add x29, sp, #112
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
.cfi_offset w27, -88
.cfi_offset w28, -96
mov x19, x4
mov x27, x3
mov x22, x2
mov x20, x1
mov x21, x0
add w8, w2, #7
cmp w2, #0
csel w8, w8, w2, lt
asr w8, w8, #3
add w8, w8, #1
sxtw x0, w8
bl _malloc
mov x15, x22
mov x22, x0
sub w8, w15, #2
add w9, w15, #5
cmp w8, #0
csel w9, w9, w8, lt
asr w9, w9, #3
strb wzr, [x0, w9, sxtw]
sub w11, w15, #1
add w9, w15, #6
cmp w11, #0
csel w9, w9, w11, lt
and w10, w9, #0xfffffff8
str w11, [sp, #16] ; 4-byte Folded Spill
sub w10, w11, w10
Lloh4:
adrp x28, _mask@PAGE
Lloh5:
add x28, x28, _mask@PAGEOFF
ldrb w10, [x28, w10, sxtw]
sbfx x9, x9, #3, #29
ldrb w11, [x0, x9]
orr w10, w11, w10
strb w10, [x0, x9]
subs w9, w15, #3
b.lt LBB3_10
; %bb.1:
add x10, x21, #4
add x11, x21, w9, uxtw #2
add x11, x11, #4
b LBB3_5
LBB3_2: ; in Loop: Header=BB3_5 Depth=1
mov w12, w8
lsr x13, x12, #3
ldrb w13, [x22, x13]
and x12, x12, #0x7
ldrb w12, [x28, x12]
tst w12, w13
b.eq LBB3_9
LBB3_3: ; in Loop: Header=BB3_5 Depth=1
and x12, x9, #0x7
ldrb w13, [x28, x12]
ubfx x12, x9, #3, #29
ldrb w14, [x22, x12]
orr w13, w14, w13
LBB3_4: ; in Loop: Header=BB3_5 Depth=1
strb w13, [x22, x12]
sub x12, x9, #1
sub w8, w8, #1
sub x11, x11, #4
cmp x9, #0
mov x9, x12
b.le LBB3_10
LBB3_5: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB3_7
; %bb.6: ; in Loop: Header=BB3_5 Depth=1
ldp w12, w13, [x11, #-4]
cmp w12, w13
b.lt LBB3_3
b LBB3_8
LBB3_7: ; in Loop: Header=BB3_5 Depth=1
add x13, x10, x9
ldurb w12, [x13, #-4]
ldurb w13, [x13, #-3]
cmp w12, w13
b.lo LBB3_3
LBB3_8: ; in Loop: Header=BB3_5 Depth=1
cmp w12, w13
b.eq LBB3_2
LBB3_9: ; in Loop: Header=BB3_5 Depth=1
and x12, x9, #0x7
ldrb w13, [x28, x12]
ubfx x12, x9, #3, #29
ldrb w14, [x22, x12]
bic w13, w14, w13
b LBB3_4
LBB3_10:
str x15, [sp, #24] ; 8-byte Folded Spill
add w24, w27, #1
mov x8, x24
sbfiz x25, x8, #2, #32
mov x0, x25
bl _malloc
mov x26, x0
tbnz w27, #31, LBB3_12
; %bb.11:
mov w8, w27
lsl x8, x8, #2
add x1, x8, #4
mov x0, x26
bl _bzero
LBB3_12:
ldr x14, [sp, #24] ; 8-byte Folded Reload
mov w23, w14
cmp w14, #1
b.lt LBB3_18
; %bb.13:
mov x8, #0
b LBB3_16
LBB3_14: ; in Loop: Header=BB3_16 Depth=1
ldrb w9, [x21, x8]
LBB3_15: ; in Loop: Header=BB3_16 Depth=1
sbfiz x9, x9, #2, #32
ldr w10, [x26, x9]
add w10, w10, #1
str w10, [x26, x9]
add x8, x8, #1
cmp x23, x8
b.eq LBB3_18
LBB3_16: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB3_14
; %bb.17: ; in Loop: Header=BB3_16 Depth=1
ldr w9, [x21, x8, lsl #2]
b LBB3_15
LBB3_18:
tbnz w27, #31, LBB3_21
; %bb.19:
mov w8, #0
mov x9, x26
mov x10, x24
LBB3_20: ; =>This Inner Loop Header: Depth=1
ldr w11, [x9]
add w8, w11, w8
str w8, [x9], #4
subs x10, x10, #1
b.ne LBB3_20
LBB3_21:
cmp w14, #1
b.lt LBB3_23
; %bb.22:
lsl x2, x23, #2
mov x0, x20
mov w1, #255
bl _memset
ldr x14, [sp, #24] ; 8-byte Folded Reload
cmp w14, #1
b.ne LBB3_171
LBB3_23:
str wzr, [sp, #12] ; 4-byte Folded Spill
tbnz w27, #31, LBB3_25
LBB3_24:
mov w8, w27
lsl x8, x8, #2
add x1, x8, #4
mov x0, x26
bl _bzero
ldr x14, [sp, #24] ; 8-byte Folded Reload
LBB3_25:
cmp w14, #1
b.lt LBB3_31
; %bb.26:
mov x8, #0
b LBB3_29
LBB3_27: ; in Loop: Header=BB3_29 Depth=1
ldrb w9, [x21, x8]
LBB3_28: ; in Loop: Header=BB3_29 Depth=1
sbfiz x9, x9, #2, #32
ldr w10, [x26, x9]
add w10, w10, #1
str w10, [x26, x9]
add x8, x8, #1
cmp x23, x8
b.eq LBB3_31
LBB3_29: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB3_27
; %bb.30: ; in Loop: Header=BB3_29 Depth=1
ldr w9, [x21, x8, lsl #2]
b LBB3_28
LBB3_31:
tbnz w27, #31, LBB3_34
; %bb.32:
mov w10, #0
mov x8, x26
mov x9, x24
LBB3_33: ; =>This Inner Loop Header: Depth=1
ldr w11, [x8]
str w10, [x8], #4
add w10, w11, w10
subs x9, x9, #1
b.ne LBB3_33
LBB3_34:
cmp w14, #1
b.lt LBB3_43
; %bb.35:
mov x8, x20
mov x9, x23
b LBB3_39
LBB3_36: ; in Loop: Header=BB3_39 Depth=1
ldrb w11, [x21, x10]
LBB3_37: ; in Loop: Header=BB3_39 Depth=1
sbfiz x11, x11, #2, #32
ldrsw x12, [x26, x11]
add w13, w12, #1
str w13, [x26, x11]
str w10, [x20, x12, lsl #2]
LBB3_38: ; in Loop: Header=BB3_39 Depth=1
add x8, x8, #4
subs x9, x9, #1
b.eq LBB3_43
LBB3_39: ; =>This Inner Loop Header: Depth=1
ldr w10, [x8]
subs w10, w10, #1
b.lt LBB3_38
; %bb.40: ; in Loop: Header=BB3_39 Depth=1
lsr x11, x10, #3
ldrb w11, [x22, x11]
and x12, x10, #0x7
ldrb w12, [x28, x12]
tst w12, w11
b.ne LBB3_38
; %bb.41: ; in Loop: Header=BB3_39 Depth=1
cmp w19, #4
b.ne LBB3_36
; %bb.42: ; in Loop: Header=BB3_39 Depth=1
ldr w11, [x21, x10, lsl #2]
b LBB3_37
LBB3_43:
tbnz w27, #31, LBB3_45
; %bb.44:
mov w8, w27
lsl x8, x8, #2
add x1, x8, #4
mov x0, x26
bl _bzero
ldr x14, [sp, #24] ; 8-byte Folded Reload
LBB3_45:
cmp w14, #1
b.lt LBB3_51
; %bb.46:
mov x8, #0
b LBB3_49
LBB3_47: ; in Loop: Header=BB3_49 Depth=1
ldrb w9, [x21, x8]
LBB3_48: ; in Loop: Header=BB3_49 Depth=1
sbfiz x9, x9, #2, #32
ldr w10, [x26, x9]
add w10, w10, #1
str w10, [x26, x9]
add x8, x8, #1
cmp x23, x8
b.eq LBB3_51
LBB3_49: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB3_47
; %bb.50: ; in Loop: Header=BB3_49 Depth=1
ldr w9, [x21, x8, lsl #2]
b LBB3_48
LBB3_51:
tbnz w27, #31, LBB3_54
; %bb.52:
mov w8, #0
mov x9, x26
mov x10, x24
LBB3_53: ; =>This Inner Loop Header: Depth=1
ldr w11, [x9]
add w8, w11, w8
str w8, [x9], #4
subs x10, x10, #1
b.ne LBB3_53
LBB3_54:
cmp w14, #0
b.le LBB3_69
; %bb.55:
add x8, x23, #1
b LBB3_59
LBB3_56: ; in Loop: Header=BB3_59 Depth=1
ldrb w10, [x21, x9]
LBB3_57: ; in Loop: Header=BB3_59 Depth=1
sbfiz x10, x10, #2, #32
ldrsw x11, [x26, x10]
sub x11, x11, #1
str w11, [x26, x10]
str w9, [x20, x11, lsl #2]
LBB3_58: ; in Loop: Header=BB3_59 Depth=1
sub x8, x8, #1
cmp x8, #1
b.ls LBB3_63
LBB3_59: ; =>This Inner Loop Header: Depth=1
sub w9, w8, #2
ldr w9, [x20, w9, uxtw #2]
subs w9, w9, #1
b.lt LBB3_58
; %bb.60: ; in Loop: Header=BB3_59 Depth=1
lsr x10, x9, #3
ldrb w10, [x22, x10]
and x11, x9, #0x7
ldrb w11, [x28, x11]
tst w11, w10
b.eq LBB3_58
; %bb.61: ; in Loop: Header=BB3_59 Depth=1
cmp w19, #4
b.ne LBB3_56
; %bb.62: ; in Loop: Header=BB3_59 Depth=1
ldr w10, [x21, x9, lsl #2]
b LBB3_57
LBB3_63:
mov x0, x26
bl _free
mov w26, #0
mov x8, x23
mov x9, x20
ldr x3, [sp, #24] ; 8-byte Folded Reload
b LBB3_65
LBB3_64: ; in Loop: Header=BB3_65 Depth=1
add x9, x9, #4
subs x8, x8, #1
b.eq LBB3_70
LBB3_65: ; =>This Inner Loop Header: Depth=1
ldr w10, [x9]
subs w11, w10, #1
b.lt LBB3_64
; %bb.66: ; in Loop: Header=BB3_65 Depth=1
lsr x12, x10, #3
ldrb w12, [x22, x12]
and x13, x10, #0x7
ldrb w13, [x28, x13]
tst w13, w12
b.eq LBB3_64
; %bb.67: ; in Loop: Header=BB3_65 Depth=1
lsr x12, x11, #3
ldrb w12, [x22, x12]
and x11, x11, #0x7
ldrb w11, [x28, x11]
tst w11, w12
b.ne LBB3_64
; %bb.68: ; in Loop: Header=BB3_65 Depth=1
str w10, [x20, w26, sxtw #2]
add w10, w26, #1
mov x26, x10
b LBB3_64
LBB3_69:
mov x0, x26
bl _free
ldr x3, [sp, #24] ; 8-byte Folded Reload
mov w26, #0
LBB3_70:
cmp w26, w3
b.ge LBB3_72
; %bb.71:
add x0, x20, w26, sxtw #2
ldr w8, [sp, #16] ; 4-byte Folded Reload
sub w8, w8, w26
lsl x8, x8, #2
add x2, x8, #4
mov w1, #255
bl _memset
ldr x3, [sp, #24] ; 8-byte Folded Reload
LBB3_72:
cmp w26, #1
b.lt LBB3_91
; %bb.73:
mov x9, #0
mov w8, #0
mov w11, #-1
mov w10, w26
b LBB3_76
LBB3_74: ; in Loop: Header=BB3_76 Depth=1
add w8, w8, #1
mov x11, x12
LBB3_75: ; in Loop: Header=BB3_76 Depth=1
ands w12, w12, #0xfffffffe
orr w13, w12, #0x1
csel w12, w13, w12, lt
sub w13, w8, #1
add w12, w26, w12, asr #1
str w13, [x20, w12, sxtw #2]
add x9, x9, #1
cmp x9, x10
b.eq LBB3_92
LBB3_76: ; =>This Loop Header: Depth=1
; Child Loop BB3_80 Depth 2
ldr w12, [x20, x9, lsl #2]
cmp w3, #1
b.lt LBB3_75
; %bb.77: ; in Loop: Header=BB3_76 Depth=1
cmn w11, #1
b.eq LBB3_74
; %bb.78: ; in Loop: Header=BB3_76 Depth=1
mov w14, #0
sxtw x13, w12
b LBB3_80
LBB3_79: ; in Loop: Header=BB3_80 Depth=2
add w14, w14, #1
cmp w14, w3
b.ge LBB3_75
LBB3_80: ; Parent Loop BB3_76 Depth=1
; => This Inner Loop Header: Depth=2
sxtw x14, w14
add x15, x14, x13
cmp w19, #4
b.ne LBB3_82
; %bb.81: ; in Loop: Header=BB3_80 Depth=2
ldr w16, [x21, x15, lsl #2]
add w17, w14, w11
ldr w17, [x21, w17, sxtw #2]
cmp w16, w17
b.eq LBB3_83
b LBB3_74
LBB3_82: ; in Loop: Header=BB3_80 Depth=2
ldrb w16, [x21, x15]
add x17, x14, w11, sxtw
ldrb w17, [x21, x17]
cmp w16, w17
b.ne LBB3_74
LBB3_83: ; in Loop: Header=BB3_80 Depth=2
add w16, w15, #7
cmp w15, #0
csel w16, w16, w15, lt
asr w17, w16, #3
ldrb w17, [x22, w17, sxtw]
and w16, w16, #0xfffffff8
sub w16, w15, w16
ldrb w16, [x28, w16, sxtw]
ands w0, w16, w17
cset w1, eq
add w16, w14, w11
add w17, w16, #7
cmp w16, #0
csel w17, w17, w16, lt
asr w2, w17, #3
ldrb w2, [x22, w2, sxtw]
and w17, w17, #0xfffffff8
sub w17, w16, w17
ldrb w17, [x28, w17, sxtw]
ands w17, w17, w2
cset w2, ne
cmp w1, w2
b.eq LBB3_74
; %bb.84: ; in Loop: Header=BB3_80 Depth=2
cbz w14, LBB3_79
; %bb.85: ; in Loop: Header=BB3_80 Depth=2
cmp w15, #1
b.lt LBB3_88
; %bb.86: ; in Loop: Header=BB3_80 Depth=2
cbz w0, LBB3_88
; %bb.87: ; in Loop: Header=BB3_80 Depth=2
sub w15, w15, #1
lsr x0, x15, #3
ldrb w0, [x22, x0]
and x15, x15, #0x7
ldrb w15, [x28, x15]
tst w15, w0
b.eq LBB3_75
LBB3_88: ; in Loop: Header=BB3_80 Depth=2
subs w15, w16, #1
b.lt LBB3_79
; %bb.89: ; in Loop: Header=BB3_80 Depth=2
cbz w17, LBB3_79
; %bb.90: ; in Loop: Header=BB3_80 Depth=2
lsr x16, x15, #3
ldrb w16, [x22, x16]
and x15, x15, #0x7
ldrb w15, [x28, x15]
tst w15, w16
b.ne LBB3_79
b LBB3_75
LBB3_91:
mov w8, #0
LBB3_92:
sxtw x9, w3
sxtw x14, w26
cmp w26, w3
b.ge LBB3_97
; %bb.93:
sub x10, x20, #4
mov x13, x9
ldr w11, [sp, #16] ; 4-byte Folded Reload
b LBB3_95
LBB3_94: ; in Loop: Header=BB3_95 Depth=1
mov x13, x12
cmp x12, x14
b.le LBB3_97
LBB3_95: ; =>This Inner Loop Header: Depth=1
sub x12, x13, #1
ldr w13, [x10, x13, lsl #2]
tbnz w13, #31, LBB3_94
; %bb.96: ; in Loop: Header=BB3_95 Depth=1
str w13, [x20, w11, sxtw #2]
sub w11, w11, #1
b LBB3_94
LBB3_97:
str w27, [sp, #20] ; 4-byte Folded Spill
add x9, x20, x9, lsl #2
sub x27, x9, x14, lsl #2
cmp w8, w26
str x14, [sp] ; 8-byte Folded Spill
b.ge LBB3_99
; %bb.98:
sub w3, w8, #1
mov x0, x27
mov x1, x20
mov x2, x26
mov w4, #4
bl _SA_IS
b LBB3_102
LBB3_99:
cmp w26, #1
b.lt LBB3_102
; %bb.100:
mov x8, #0
mov w9, w26
LBB3_101: ; =>This Inner Loop Header: Depth=1
ldrsw x10, [x27, x8, lsl #2]
str w8, [x20, x10, lsl #2]
add x8, x8, #1
cmp x9, x8
b.ne LBB3_101
LBB3_102:
mov x0, x25
bl _malloc
mov x25, x0
ldr w8, [sp, #20] ; 4-byte Folded Reload
tbnz w8, #31, LBB3_104
; %bb.103:
mov w8, w8
lsl x8, x8, #2
add x1, x8, #4
mov x0, x25
bl _bzero
LBB3_104:
ldr x14, [sp, #24] ; 8-byte Folded Reload
cmp w14, #1
b.lt LBB3_110
; %bb.105:
mov x8, #0
b LBB3_108
LBB3_106: ; in Loop: Header=BB3_108 Depth=1
ldrb w9, [x21, x8]
LBB3_107: ; in Loop: Header=BB3_108 Depth=1
sbfiz x9, x9, #2, #32
ldr w10, [x25, x9]
add w10, w10, #1
str w10, [x25, x9]
add x8, x8, #1
cmp x23, x8
b.eq LBB3_110
LBB3_108: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB3_106
; %bb.109: ; in Loop: Header=BB3_108 Depth=1
ldr w9, [x21, x8, lsl #2]
b LBB3_107
LBB3_110:
ldr w8, [sp, #20] ; 4-byte Folded Reload
tbnz w8, #31, LBB3_113
; %bb.111:
mov w8, #0
mov x9, x25
mov x10, x24
LBB3_112: ; =>This Inner Loop Header: Depth=1
ldr w11, [x9]
add w8, w11, w8
str w8, [x9], #4
subs x10, x10, #1
b.ne LBB3_112
LBB3_113:
ldr w8, [sp, #12] ; 4-byte Folded Reload
cbz w8, LBB3_119
; %bb.114:
mov w8, #0
mov w9, #1
b LBB3_116
LBB3_115: ; in Loop: Header=BB3_116 Depth=1
add w9, w9, #1
cmp w14, w9
b.eq LBB3_119
LBB3_116: ; =>This Inner Loop Header: Depth=1
mov w10, w9
lsr x11, x10, #3
ldrb w11, [x22, x11]
and x10, x10, #0x7
ldrb w10, [x28, x10]
tst w10, w11
b.eq LBB3_115
; %bb.117: ; in Loop: Header=BB3_116 Depth=1
sub w10, w9, #1
lsr x11, x10, #3
ldrb w11, [x22, x11]
and x10, x10, #0x7
ldrb w10, [x28, x10]
tst w10, w11
b.ne LBB3_115
; %bb.118: ; in Loop: Header=BB3_116 Depth=1
str w9, [x27, w8, sxtw #2]
add w8, w8, #1
b LBB3_115
LBB3_119:
cmp w26, #1
b.lt LBB3_122
; %bb.120:
mov w8, w26
mov x9, x20
LBB3_121: ; =>This Inner Loop Header: Depth=1
ldrsw x10, [x9]
ldr w10, [x27, x10, lsl #2]
str w10, [x9], #4
subs x8, x8, #1
b.ne LBB3_121
LBB3_122:
cmp w26, w14
b.ge LBB3_124
; %bb.123:
ldr x8, [sp] ; 8-byte Folded Reload
add x0, x20, x8, lsl #2
ldr w8, [sp, #16] ; 4-byte Folded Reload
sub w8, w8, w26
lsl x8, x8, #2
add x2, x8, #4
mov w1, #255
bl _memset
ldr x14, [sp, #24] ; 8-byte Folded Reload
LBB3_124:
cmp w26, #1
ldr w27, [sp, #20] ; 4-byte Folded Reload
b.lt LBB3_130
; %bb.125:
mov w8, w26
add x8, x8, #1
mov w9, #-1
b LBB3_128
LBB3_126: ; in Loop: Header=BB3_128 Depth=1
ldrb w11, [x21, x11]
LBB3_127: ; in Loop: Header=BB3_128 Depth=1
sbfiz x11, x11, #2, #32
ldrsw x12, [x25, x11]
sub x12, x12, #1
str w12, [x25, x11]
str w10, [x20, x12, lsl #2]
sub x8, x8, #1
cmp x8, #1
b.ls LBB3_130
LBB3_128: ; =>This Inner Loop Header: Depth=1
sub w10, w8, #2
lsl x11, x10, #2
ldr w10, [x20, x11]
str w9, [x20, x11]
sxtw x11, w10
cmp w19, #4
b.ne LBB3_126
; %bb.129: ; in Loop: Header=BB3_128 Depth=1
ldr w11, [x21, x11, lsl #2]
b LBB3_127
LBB3_130:
tbnz w27, #31, LBB3_132
; %bb.131:
mov w8, w27
lsl x8, x8, #2
add x1, x8, #4
mov x0, x25
bl _bzero
ldr x14, [sp, #24] ; 8-byte Folded Reload
LBB3_132:
cmp w14, #1
b.lt LBB3_138
; %bb.133:
mov x8, #0
b LBB3_136
LBB3_134: ; in Loop: Header=BB3_136 Depth=1
ldrb w9, [x21, x8]
LBB3_135: ; in Loop: Header=BB3_136 Depth=1
sbfiz x9, x9, #2, #32
ldr w10, [x25, x9]
add w10, w10, #1
str w10, [x25, x9]
add x8, x8, #1
cmp x23, x8
b.eq LBB3_138
LBB3_136: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB3_134
; %bb.137: ; in Loop: Header=BB3_136 Depth=1
ldr w9, [x21, x8, lsl #2]
b LBB3_135
LBB3_138:
tbnz w27, #31, LBB3_141
; %bb.139:
mov w10, #0
mov x8, x25
mov x9, x24
LBB3_140: ; =>This Inner Loop Header: Depth=1
ldr w11, [x8]
str w10, [x8], #4
add w10, w11, w10
subs x9, x9, #1
b.ne LBB3_140
LBB3_141:
cmp w14, #1
b.lt LBB3_150
; %bb.142:
mov x8, x20
mov x9, x23
b LBB3_146
LBB3_143: ; in Loop: Header=BB3_146 Depth=1
ldrb w11, [x21, x10]
LBB3_144: ; in Loop: Header=BB3_146 Depth=1
sbfiz x11, x11, #2, #32
ldrsw x12, [x25, x11]
add w13, w12, #1
str w13, [x25, x11]
str w10, [x20, x12, lsl #2]
LBB3_145: ; in Loop: Header=BB3_146 Depth=1
add x8, x8, #4
subs x9, x9, #1
b.eq LBB3_150
LBB3_146: ; =>This Inner Loop Header: Depth=1
ldr w10, [x8]
subs w10, w10, #1
b.lt LBB3_145
; %bb.147: ; in Loop: Header=BB3_146 Depth=1
lsr x11, x10, #3
ldrb w11, [x22, x11]
and x12, x10, #0x7
ldrb w12, [x28, x12]
tst w12, w11
b.ne LBB3_145
; %bb.148: ; in Loop: Header=BB3_146 Depth=1
cmp w19, #4
b.ne LBB3_143
; %bb.149: ; in Loop: Header=BB3_146 Depth=1
ldr w11, [x21, x10, lsl #2]
b LBB3_144
LBB3_150:
tbnz w27, #31, LBB3_152
; %bb.151:
mov w8, w27
lsl x8, x8, #2
add x1, x8, #4
mov x0, x25
bl _bzero
ldr x14, [sp, #24] ; 8-byte Folded Reload
LBB3_152:
cmp w14, #1
b.lt LBB3_158
; %bb.153:
mov x8, #0
b LBB3_156
LBB3_154: ; in Loop: Header=BB3_156 Depth=1
ldrb w9, [x21, x8]
LBB3_155: ; in Loop: Header=BB3_156 Depth=1
sbfiz x9, x9, #2, #32
ldr w10, [x25, x9]
add w10, w10, #1
str w10, [x25, x9]
add x8, x8, #1
cmp x23, x8
b.eq LBB3_158
LBB3_156: ; =>This Inner Loop Header: Depth=1
cmp w19, #4
b.ne LBB3_154
; %bb.157: ; in Loop: Header=BB3_156 Depth=1
ldr w9, [x21, x8, lsl #2]
b LBB3_155
LBB3_158:
tbnz w27, #31, LBB3_161
; %bb.159:
mov w8, #0
mov x9, x25
LBB3_160: ; =>This Inner Loop Header: Depth=1
ldr w10, [x9]
add w8, w10, w8
str w8, [x9], #4
subs x24, x24, #1
b.ne LBB3_160
LBB3_161:
cmp w14, #1
b.lt LBB3_170
; %bb.162:
add x8, x23, #1
b LBB3_166
LBB3_163: ; in Loop: Header=BB3_166 Depth=1
ldrb w10, [x21, x9]
LBB3_164: ; in Loop: Header=BB3_166 Depth=1
sbfiz x10, x10, #2, #32
ldrsw x11, [x25, x10]
sub x11, x11, #1
str w11, [x25, x10]
str w9, [x20, x11, lsl #2]
LBB3_165: ; in Loop: Header=BB3_166 Depth=1
sub x8, x8, #1
cmp x8, #1
b.ls LBB3_170
LBB3_166: ; =>This Inner Loop Header: Depth=1
sub w9, w8, #2
ldr w9, [x20, w9, uxtw #2]
subs w9, w9, #1
b.lt LBB3_165
; %bb.167: ; in Loop: Header=BB3_166 Depth=1
lsr x10, x9, #3
ldrb w10, [x22, x10]
and x11, x9, #0x7
ldrb w11, [x28, x11]
tst w11, w10
b.eq LBB3_165
; %bb.168: ; in Loop: Header=BB3_166 Depth=1
cmp w19, #4
b.ne LBB3_163
; %bb.169: ; in Loop: Header=BB3_166 Depth=1
ldr w10, [x21, x9, lsl #2]
b LBB3_164
LBB3_170:
mov x0, x25
bl _free
mov x0, x22
ldp x29, x30, [sp, #112] ; 16-byte Folded Reload
ldp x20, x19, [sp, #96] ; 16-byte Folded Reload
ldp x22, x21, [sp, #80] ; 16-byte Folded Reload
ldp x24, x23, [sp, #64] ; 16-byte Folded Reload
ldp x26, x25, [sp, #48] ; 16-byte Folded Reload
ldp x28, x27, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #128
b _free
LBB3_171:
mov w8, #1
b LBB3_175
LBB3_172: ; in Loop: Header=BB3_175 Depth=1
ldrb w9, [x21, x8]
LBB3_173: ; in Loop: Header=BB3_175 Depth=1
sbfiz x9, x9, #2, #32
ldrsw x10, [x26, x9]
sub x10, x10, #1
str w10, [x26, x9]
str w8, [x20, x10, lsl #2]
LBB3_174: ; in Loop: Header=BB3_175 Depth=1
add x8, x8, #1
cmp x23, x8
b.eq LBB3_179
LBB3_175: ; =>This Inner Loop Header: Depth=1
ubfx x9, x8, #3, #29
ldrb w9, [x22, x9]
and x10, x8, #0x7
ldrb w10, [x28, x10]
tst w10, w9
b.eq LBB3_174
; %bb.176: ; in Loop: Header=BB3_175 Depth=1
sub x9, x8, #1
ubfx x10, x9, #3, #29
ldrb w10, [x22, x10]
and x9, x9, #0x7
ldrb w9, [x28, x9]
tst w9, w10
b.ne LBB3_174
; %bb.177: ; in Loop: Header=BB3_175 Depth=1
cmp w19, #4
b.ne LBB3_172
; %bb.178: ; in Loop: Header=BB3_175 Depth=1
ldr w9, [x21, x8, lsl #2]
b LBB3_173
LBB3_179:
mov w8, #1
str w8, [sp, #12] ; 4-byte Folded Spill
tbz w27, #31, LBB3_24
b LBB3_25
.loh AdrpAdd Lloh4, Lloh5
.cfi_endproc
; -- End function
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
sub sp, sp, #64
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov w0, #284
bl _malloc
mov x19, x0
Lloh6:
adrp x0, l_.str@PAGE
Lloh7:
add x0, x0, l_.str@PAGEOFF
mov x1, x19
mov w2, #71
mov w3, #256
mov w4, #1
bl _SA_IS
Lloh8:
adrp x0, l_str@PAGE
Lloh9:
add x0, x0, l_str@PAGEOFF
bl _puts
mov x21, #0
Lloh10:
adrp x20, l_.str.2@PAGE
Lloh11:
add x20, x20, l_.str.2@PAGEOFF
LBB4_1: ; =>This Inner Loop Header: Depth=1
ldr w8, [x19, x21]
str x8, [sp]
mov x0, x20
bl _printf
add x21, x21, #4
cmp x21, #284
b.ne LBB4_1
; %bb.2:
mov w0, #10
bl _putchar
mov w0, #0
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #64
ret
.loh AdrpAdd Lloh10, Lloh11
.loh AdrpAdd Lloh8, Lloh9
.loh AdrpAdd Lloh6, Lloh7
.cfi_endproc
; -- End function
.section __DATA,__data
.globl _mask ; @mask
_mask:
.ascii "\200@ \020\b\004\002\001"
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "CCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTAACCCTA$"
l_.str.2: ; @.str.2
.asciz "%d "
l_str: ; @str
.asciz "done"
.subsections_via_symbols
| the_stack_data/891066.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ## -- Begin function main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $408, %rsp ## imm = 0x198
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -48(%rbp)
movq 8(%rsi), %rdi
leaq L_.str(%rip), %rsi
callq _fopen
movq %rax, %r12
leaq L_.str.1(%rip), %r14
leaq L_.str.2(%rip), %r15
xorl %ebx, %ebx
xorl %r13d, %r13d
jmp LBB0_1
.p2align 4, 0x90
LBB0_5: ## in Loop: Header=BB0_1 Depth=1
movq %r14, %rdi
movl %ebx, %esi
xorl %eax, %eax
callq _printf
movq %r12, %rdi
callq _ftell
decl %eax
movslq %r13d, %rcx
incl %r13d
movl %eax, -448(%rbp,%rcx,4)
incl %ebx
LBB0_1: ## =>This Inner Loop Header: Depth=1
movq %r12, %rdi
callq _fgetc
shll $24, %eax
cmpl $150994944, %eax ## imm = 0x9000000
je LBB0_5
## %bb.2: ## in Loop: Header=BB0_1 Depth=1
cmpl $-16777216, %eax ## imm = 0xFF000000
je LBB0_3
## %bb.6: ## in Loop: Header=BB0_1 Depth=1
sarl $24, %eax
movq %r15, %rdi
movl %ebx, %esi
movl %eax, %edx
xorl %eax, %eax
callq _printf
incl %ebx
jmp LBB0_1
LBB0_3:
testl %r13d, %r13d
jle LBB0_4
## %bb.7:
movl %r13d, %r15d
leaq L_.str.3(%rip), %r14
xorl %ebx, %ebx
.p2align 4, 0x90
LBB0_8: ## =>This Inner Loop Header: Depth=1
movl -448(%rbp,%rbx,4), %esi
movq %r14, %rdi
xorl %eax, %eax
callq _printf
incq %rbx
cmpq %rbx, %r15
jne LBB0_8
## %bb.9:
movl $10, %edi
callq _putchar
xorl %ebx, %ebx
.p2align 4, 0x90
LBB0_10: ## =>This Inner Loop Header: Depth=1
movslq -448(%rbp,%rbx,4), %rsi
movq %r12, %rdi
xorl %edx, %edx
callq _fseek
movl $32, %edi
movq %r12, %rsi
callq _fputc
incq %rbx
cmpq %rbx, %r15
jne LBB0_10
jmp LBB0_11
LBB0_4:
movl $10, %edi
callq _putchar
LBB0_11:
movq %r12, %rdi
callq _fflush
movq %r12, %rdi
callq _fclose
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -48(%rbp), %rax
jne LBB0_13
## %bb.12:
xorl %eax, %eax
addq $408, %rsp ## imm = 0x198
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB0_13:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "r+"
L_.str.1: ## @.str.1
.asciz "%d->tab "
L_.str.2: ## @.str.2
.asciz "%d->%c "
L_.str.3: ## @.str.3
.asciz "%d "
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
stp x28, x27, [sp, #-96]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 96
stp x26, x25, [sp, #16] ; 16-byte Folded Spill
stp x24, x23, [sp, #32] ; 16-byte Folded Spill
stp x22, x21, [sp, #48] ; 16-byte Folded Spill
stp x20, x19, [sp, #64] ; 16-byte Folded Spill
stp x29, x30, [sp, #80] ; 16-byte Folded Spill
add x29, sp, #80
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
.cfi_offset w27, -88
.cfi_offset w28, -96
sub sp, sp, #432
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
stur x8, [x29, #-88]
ldr x0, [x1, #8]
Lloh3:
adrp x1, l_.str@PAGE
Lloh4:
add x1, x1, l_.str@PAGEOFF
bl _fopen
mov x19, x0
mov w23, #0
mov w22, #0
mov w24, #150994944
Lloh5:
adrp x20, l_.str.1@PAGE
Lloh6:
add x20, x20, l_.str.1@PAGEOFF
add x25, sp, #24
mov w26, #-16777216
Lloh7:
adrp x21, l_.str.2@PAGE
Lloh8:
add x21, x21, l_.str.2@PAGEOFF
b LBB0_2
LBB0_1: ; in Loop: Header=BB0_2 Depth=1
str x23, [sp]
mov x0, x20
bl _printf
mov x0, x19
bl _ftell
sub w8, w0, #1
str w8, [x25, w22, sxtw #2]
add w22, w22, #1
add w23, w23, #1
LBB0_2: ; =>This Inner Loop Header: Depth=1
mov x0, x19
bl _fgetc
lsl w8, w0, #24
cmp w8, w24
b.eq LBB0_1
; %bb.3: ; in Loop: Header=BB0_2 Depth=1
cmp w8, w26
b.eq LBB0_5
; %bb.4: ; in Loop: Header=BB0_2 Depth=1
asr w8, w8, #24
mov x9, x23
stp x9, x8, [sp]
mov x0, x21
bl _printf
add w23, w23, #1
b LBB0_2
LBB0_5:
cmp w22, #0
b.le LBB0_10
; %bb.6:
mov w21, w22
add x22, sp, #24
Lloh9:
adrp x20, l_.str.3@PAGE
Lloh10:
add x20, x20, l_.str.3@PAGEOFF
mov x23, x21
LBB0_7: ; =>This Inner Loop Header: Depth=1
ldr w8, [x22], #4
str x8, [sp]
mov x0, x20
bl _printf
subs x23, x23, #1
b.ne LBB0_7
; %bb.8:
mov w0, #10
bl _putchar
add x20, sp, #24
LBB0_9: ; =>This Inner Loop Header: Depth=1
ldrsw x1, [x20], #4
mov x0, x19
mov w2, #0
bl _fseek
mov w0, #32
mov x1, x19
bl _fputc
subs x21, x21, #1
b.ne LBB0_9
b LBB0_11
LBB0_10:
mov w0, #10
bl _putchar
LBB0_11:
mov x0, x19
bl _fflush
mov x0, x19
bl _fclose
ldur x8, [x29, #-88]
Lloh11:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh12:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh13:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_13
; %bb.12:
mov w0, #0
add sp, sp, #432
ldp x29, x30, [sp, #80] ; 16-byte Folded Reload
ldp x20, x19, [sp, #64] ; 16-byte Folded Reload
ldp x22, x21, [sp, #48] ; 16-byte Folded Reload
ldp x24, x23, [sp, #32] ; 16-byte Folded Reload
ldp x26, x25, [sp, #16] ; 16-byte Folded Reload
ldp x28, x27, [sp], #96 ; 16-byte Folded Reload
ret
LBB0_13:
bl ___stack_chk_fail
.loh AdrpAdd Lloh7, Lloh8
.loh AdrpAdd Lloh5, Lloh6
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpAdd Lloh9, Lloh10
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "r+"
l_.str.1: ; @.str.1
.asciz "%d->tab "
l_.str.2: ; @.str.2
.asciz "%d->%c "
l_.str.3: ; @.str.3
.asciz "%d "
.subsections_via_symbols
| the_stack_data/175144240.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function unixNextSystemCall
_unixNextSystemCall: ## @unixNextSystemCall
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rsi, %r14
callq _UNUSED_PARAMETER
testq %r14, %r14
je LBB0_1
## %bb.2:
movq _aSyscall@GOTPCREL(%rip), %r15
movq (%r15), %rdi
callq _ArraySize
cmpl $2, %eax
jl LBB0_3
## %bb.4:
xorl %r12d, %r12d
xorl %r13d, %r13d
.p2align 4, 0x90
LBB0_5: ## =>This Inner Loop Header: Depth=1
movq (%r15), %rax
movq (%rax,%r12), %rsi
movq %r14, %rdi
callq _strcmp
testq %rax, %rax
je LBB0_7
## %bb.6: ## in Loop: Header=BB0_5 Depth=1
incq %r13
movq (%r15), %rdi
callq _ArraySize
decl %eax
cltq
addq $16, %r12
cmpq %rax, %r13
jl LBB0_5
jmp LBB0_7
LBB0_1:
movq $-1, %r13
jmp LBB0_7
LBB0_3:
xorl %r13d, %r13d
LBB0_7:
movslq %r13d, %rbx
movq _aSyscall@GOTPCREL(%rip), %r15
movq (%r15), %rdi
shlq $4, %r13
xorl %r14d, %r14d
.p2align 4, 0x90
LBB0_8: ## =>This Inner Loop Header: Depth=1
incq %rbx
callq _ArraySize
cltq
cmpq %rax, %rbx
jge LBB0_11
## %bb.9: ## in Loop: Header=BB0_8 Depth=1
leaq 16(%r13), %rax
movq (%r15), %rdi
cmpq $0, 24(%rdi,%r13)
movq %rax, %r13
je LBB0_8
## %bb.10:
movq (%rdi,%rax), %r14
LBB0_11:
movq %r14, %rax
addq $8, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _aSyscall,8,3 ## @aSyscall
.no_dead_strip _unixNextSystemCall
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function unixNextSystemCall
_unixNextSystemCall: ; @unixNextSystemCall
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x1
bl _UNUSED_PARAMETER
Lloh0:
adrp x20, _aSyscall@GOTPAGE
Lloh1:
ldr x20, [x20, _aSyscall@GOTPAGEOFF]
cbz x19, LBB0_5
; %bb.1:
ldr x0, [x20]
bl _ArraySize
cmp w0, #2
b.lt LBB0_6
; %bb.2:
mov x22, #0
mov x21, #0
LBB0_3: ; =>This Inner Loop Header: Depth=1
ldr x8, [x20]
ldr x1, [x8, x22]
mov x0, x19
bl _strcmp
cbz x0, LBB0_7
; %bb.4: ; in Loop: Header=BB0_3 Depth=1
add x21, x21, #1
ldr x0, [x20]
bl _ArraySize
sub w8, w0, #1
add x22, x22, #16
cmp x21, w8, sxtw
b.lt LBB0_3
b LBB0_7
LBB0_5:
mov x21, #-1
b LBB0_7
LBB0_6:
mov x21, #0
LBB0_7:
sxtw x19, w21
ldr x0, [x20]
lsl x21, x21, #4
LBB0_8: ; =>This Inner Loop Header: Depth=1
add x19, x19, #1
bl _ArraySize
cmp x19, w0, sxtw
b.ge LBB0_11
; %bb.9: ; in Loop: Header=BB0_8 Depth=1
add x8, x21, #16
ldr x0, [x20]
add x9, x0, x21
ldr x9, [x9, #24]
mov x21, x8
cbz x9, LBB0_8
; %bb.10:
ldr x0, [x0, x8]
b LBB0_12
LBB0_11:
mov x0, #0
LBB0_12:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpLdrGot Lloh0, Lloh1
.cfi_endproc
; -- End function
.comm _aSyscall,8,3 ; @aSyscall
.no_dead_strip _unixNextSystemCall
.subsections_via_symbols
| AnghaBench/poco/Data/SQLite/src/extr_sqlite3.c_unixNextSystemCall.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__literal8,8byte_literals
.p2align 3 ## -- Begin function main
LCPI0_0:
.quad 0x3fe0000000000000 ## double 0.5
.section __TEXT,__text,regular,pure_instructions
.globl _main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
leaq L_.str(%rip), %rdi
xorl %eax, %eax
callq _printf
leaq L_.str.1(%rip), %rbx
leaq -16(%rbp), %rsi
movq %rbx, %rdi
xorl %eax, %eax
callq _scanf
leaq L_.str.2(%rip), %rdi
xorl %eax, %eax
callq _printf
leaq -12(%rbp), %rsi
movq %rbx, %rdi
xorl %eax, %eax
callq _scanf
movl -12(%rbp), %eax
addl -16(%rbp), %eax
cvtsi2sd %eax, %xmm0
mulsd LCPI0_0(%rip), %xmm0
cvtsd2ss %xmm0, %xmm0
cvtss2sd %xmm0, %xmm0
leaq L_.str.3(%rip), %rdi
movb $1, %al
callq _printf
xorl %eax, %eax
addq $8, %rsp
popq %rbx
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Enter the mark 1 :"
L_.str.1: ## @.str.1
.asciz "%d"
L_.str.2: ## @.str.2
.asciz "Enter the mark 2 :"
L_.str.3: ## @.str.3
.asciz "Average is -->: %.2f"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
Lloh0:
adrp x0, l_.str@PAGE
Lloh1:
add x0, x0, l_.str@PAGEOFF
bl _printf
add x8, sp, #12
str x8, [sp]
Lloh2:
adrp x19, l_.str.1@PAGE
Lloh3:
add x19, x19, l_.str.1@PAGEOFF
mov x0, x19
bl _scanf
Lloh4:
adrp x0, l_.str.2@PAGE
Lloh5:
add x0, x0, l_.str.2@PAGEOFF
bl _printf
add x8, sp, #8
str x8, [sp]
mov x0, x19
bl _scanf
ldp w9, w8, [sp, #8]
add w8, w9, w8
scvtf d0, w8
fmov d1, #0.50000000
fmul d0, d0, d1
fcvt s0, d0
fcvt d0, s0
str d0, [sp]
Lloh6:
adrp x0, l_.str.3@PAGE
Lloh7:
add x0, x0, l_.str.3@PAGEOFF
bl _printf
mov w0, #0
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #48
ret
.loh AdrpAdd Lloh6, Lloh7
.loh AdrpAdd Lloh4, Lloh5
.loh AdrpAdd Lloh2, Lloh3
.loh AdrpAdd Lloh0, Lloh1
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Enter the mark 1 :"
l_.str.1: ; @.str.1
.asciz "%d"
l_.str.2: ; @.str.2
.asciz "Enter the mark 2 :"
l_.str.3: ; @.str.3
.asciz "Average is -->: %.2f"
.subsections_via_symbols
| the_stack_data/111077865.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function ev2_close_edit
_ev2_close_edit: ## @ev2_close_edit
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
movq %rdi, %rbx
callq _run_ev2_actions
movl %eax, %edi
callq _SVN_ERR
movq _TRUE@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, 4(%rbx)
movl (%rbx), %edi
callq _svn_editor_complete
movl %eax, %edi
addq $8, %rsp
popq %rbx
popq %rbp
jmp _svn_error_trace ## TAILCALL
.cfi_endproc
## -- End function
.comm _TRUE,4,2 ## @TRUE
.no_dead_strip _ev2_close_edit
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function ev2_close_edit
_ev2_close_edit: ; @ev2_close_edit
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x0
bl _run_ev2_actions
bl _SVN_ERR
Lloh0:
adrp x8, _TRUE@GOTPAGE
Lloh1:
ldr x8, [x8, _TRUE@GOTPAGEOFF]
Lloh2:
ldr w8, [x8]
str w8, [x19, #4]
ldr w0, [x19]
bl _svn_editor_complete
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _svn_error_trace
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _TRUE,4,2 ; @TRUE
.no_dead_strip _ev2_close_edit
.subsections_via_symbols
| AnghaBench/freebsd/contrib/subversion/subversion/libsvn_delta/extr_compat.c_ev2_close_edit.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function getnum
_getnum: ## @getnum
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
testq %rdi, %rdi
je LBB0_7
## %bb.1:
movl %ecx, %r12d
movl %edx, %r15d
movq %rsi, %r14
movq %rdi, %r13
movb (%rdi), %bl
movsbl %bl, %edi
callq _is_digit
testq %rax, %rax
je LBB0_7
## %bb.2:
movq %r14, -48(%rbp) ## 8-byte Spill
xorl %r14d, %r14d
.p2align 4, 0x90
LBB0_3: ## =>This Inner Loop Header: Depth=1
leal (%r14,%r14,4), %eax
movsbl %bl, %ecx
leal (%rcx,%rax,2), %r14d
addl $-48, %r14d
cmpl %r12d, %r14d
jg LBB0_7
## %bb.4: ## in Loop: Header=BB0_3 Depth=1
movzbl 1(%r13), %ebx
incq %r13
movsbl %bl, %edi
callq _is_digit
testq %rax, %rax
jne LBB0_3
## %bb.5:
cmpl %r15d, %r14d
jge LBB0_10
LBB0_7:
xorl %r13d, %r13d
LBB0_11:
movq %r13, %rax
addq $8, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB0_10:
movq -48(%rbp), %rax ## 8-byte Reload
movl %r14d, (%rax)
jmp LBB0_11
.cfi_endproc
## -- End function
.no_dead_strip _getnum
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function getnum
_getnum: ; @getnum
.cfi_startproc
; %bb.0:
stp x26, x25, [sp, #-80]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 80
stp x24, x23, [sp, #16] ; 16-byte Folded Spill
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
mov x19, x0
cbz x0, LBB0_7
; %bb.1:
mov x22, x3
mov x21, x2
mov x20, x1
ldrsb w23, [x19]
mov x0, x23
bl _is_digit
cbz x0, LBB0_6
; %bb.2:
mov w24, #0
and w25, w23, #0xff
mov w23, #10
LBB0_3: ; =>This Inner Loop Header: Depth=1
mul w8, w24, w23
add w8, w8, w25, sxtb
sub w24, w8, #48
cmp w24, w22
b.gt LBB0_6
; %bb.4: ; in Loop: Header=BB0_3 Depth=1
ldrsb w0, [x19, #1]!
and w25, w0, #0xff
bl _is_digit
cbnz x0, LBB0_3
; %bb.5:
cmp w24, w21
b.ge LBB0_8
LBB0_6:
mov x19, #0
LBB0_7:
mov x0, x19
ldp x29, x30, [sp, #64] ; 16-byte Folded Reload
ldp x20, x19, [sp, #48] ; 16-byte Folded Reload
ldp x22, x21, [sp, #32] ; 16-byte Folded Reload
ldp x24, x23, [sp, #16] ; 16-byte Folded Reload
ldp x26, x25, [sp], #80 ; 16-byte Folded Reload
ret
LBB0_8:
str w24, [x20]
b LBB0_7
.cfi_endproc
; -- End function
.no_dead_strip _getnum
.subsections_via_symbols
| AnghaBench/postgres/src/timezone/extr_localtime.c_getnum.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function vpfe_videobuf_queue
_vpfe_videobuf_queue: ## @vpfe_videobuf_queue
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rsi, %r14
movq (%rdi), %rax
movq (%rax), %rbx
movq _debug@GOTPCREL(%rip), %rax
movl (%rax), %esi
leaq 8(%rbx), %rdx
leaq L_.str(%rip), %rcx
movl $1, %edi
callq _v4l2_dbg
movq %rbx, %rdi
callq _spin_lock_irqsave
leaq 4(%r14), %rdi
leaq 4(%rbx), %rsi
callq _list_add_tail
movq %rbx, %rdi
callq _spin_unlock_irqrestore
movq _VIDEOBUF_QUEUED@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, (%r14)
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _debug,4,2 ## @debug
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "vpfe_buffer_queue\n"
.comm _VIDEOBUF_QUEUED,4,2 ## @VIDEOBUF_QUEUED
.no_dead_strip _vpfe_videobuf_queue
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function vpfe_videobuf_queue
_vpfe_videobuf_queue: ; @vpfe_videobuf_queue
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x1
ldr x8, [x0]
ldr x20, [x8]
Lloh0:
adrp x8, _debug@GOTPAGE
Lloh1:
ldr x8, [x8, _debug@GOTPAGEOFF]
Lloh2:
ldr w1, [x8]
add x2, x20, #8
Lloh3:
adrp x3, l_.str@PAGE
Lloh4:
add x3, x3, l_.str@PAGEOFF
mov w0, #1
bl _v4l2_dbg
mov x0, x20
bl _spin_lock_irqsave
add x0, x19, #4
add x1, x20, #4
bl _list_add_tail
mov x0, x20
bl _spin_unlock_irqrestore
Lloh5:
adrp x8, _VIDEOBUF_QUEUED@GOTPAGE
Lloh6:
ldr x8, [x8, _VIDEOBUF_QUEUED@GOTPAGEOFF]
Lloh7:
ldr w8, [x8]
str w8, [x19]
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _debug,4,2 ; @debug
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "vpfe_buffer_queue\n"
.comm _VIDEOBUF_QUEUED,4,2 ; @VIDEOBUF_QUEUED
.no_dead_strip _vpfe_videobuf_queue
.subsections_via_symbols
| AnghaBench/linux/drivers/media/platform/davinci/extr_vpfe_capture.c_vpfe_videobuf_queue.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _enqueue ## -- Begin function enqueue
.p2align 4, 0x90
_enqueue: ## @enqueue
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %edx, %r15d
movl %esi, %ebx
movq %rdi, %r14
movl $16, %edi
callq _malloc
testq %rax, %rax
je LBB0_1
## %bb.2:
movl %r15d, (%rax)
movl %ebx, 4(%rax)
testq %r14, %r14
je LBB0_9
## %bb.3:
cmpl %ebx, 4(%r14)
jle LBB0_4
LBB0_9:
movq %r14, 8(%rax)
movq %rax, %r14
jmp LBB0_8
LBB0_1:
leaq L_str(%rip), %rdi
callq _puts
jmp LBB0_8
LBB0_4:
movq %r14, %rcx
.p2align 4, 0x90
LBB0_5: ## =>This Inner Loop Header: Depth=1
movq %rcx, %rdx
movq 8(%rcx), %rcx
testq %rcx, %rcx
je LBB0_7
## %bb.6: ## in Loop: Header=BB0_5 Depth=1
cmpl %ebx, 4(%rcx)
jle LBB0_5
LBB0_7:
movq %rcx, 8(%rax)
movq %rax, 8(%rdx)
LBB0_8:
movq %r14, %rax
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _dequeue ## -- Begin function dequeue
.p2align 4, 0x90
_dequeue: ## @dequeue
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
testq %rdi, %rdi
je LBB1_1
## %bb.2:
movq %rdi, %rbx
movq 8(%rdi), %r14
movl (%rdi), %esi
movl 4(%rdi), %edx
leaq L_.str.2(%rip), %rdi
xorl %eax, %eax
callq _printf
movq %rbx, %rdi
callq _free
jmp LBB1_3
LBB1_1:
leaq L_str.14(%rip), %rdi
callq _puts
xorl %r14d, %r14d
LBB1_3:
movq %r14, %rax
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _display ## -- Begin function display
.p2align 4, 0x90
_display: ## @display
.cfi_startproc
## %bb.0:
testq %rdi, %rdi
je LBB2_4
## %bb.1:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rdi, %rbx
leaq L_.str.3(%rip), %r14
.p2align 4, 0x90
LBB2_2: ## =>This Inner Loop Header: Depth=1
movl (%rbx), %esi
movq %r14, %rdi
xorl %eax, %eax
callq _printf
movq 8(%rbx), %rbx
testq %rbx, %rbx
jne LBB2_2
## %bb.3:
popq %rbx
popq %r14
popq %rbp
retq
LBB2_4:
leaq L_str.14(%rip), %rdi
jmp _puts ## TAILCALL
.cfi_endproc
## -- End function
.globl _main ## -- Begin function main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $24, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
leaq L_str.15(%rip), %rdi
callq _puts
leaq L_str.16(%rip), %rdi
callq _puts
leaq L_str.17(%rip), %rdi
callq _puts
leaq L_str.18(%rip), %rdi
callq _puts
leaq L_.str.8(%rip), %r12
leaq -44(%rbp), %r14
leaq L_.str.3(%rip), %r13
xorl %r15d, %r15d
jmp LBB3_1
.p2align 4, 0x90
LBB3_17: ## in Loop: Header=BB3_1 Depth=1
leaq L_str.21(%rip), %rdi
callq _puts
LBB3_18: ## in Loop: Header=BB3_1 Depth=1
leaq L_str.19(%rip), %rdi
callq _puts
LBB3_1: ## =>This Loop Header: Depth=1
## Child Loop BB3_16 Depth 2
## Child Loop BB3_9 Depth 2
movq %r12, %rdi
movq %r14, %rsi
xorl %eax, %eax
callq _scanf
movl -44(%rbp), %eax
decl %eax
cmpl $3, %eax
ja LBB3_17
## %bb.2: ## in Loop: Header=BB3_1 Depth=1
leaq LJTI3_0(%rip), %rcx
movslq (%rcx,%rax,4), %rax
addq %rcx, %rax
jmpq *%rax
LBB3_3: ## in Loop: Header=BB3_1 Depth=1
movq %r12, %r14
leaq L_str.20(%rip), %rdi
callq _puts
leaq L_.str.10(%rip), %rdi
leaq -48(%rbp), %rsi
leaq -52(%rbp), %rdx
xorl %eax, %eax
callq _scanf
movl -48(%rbp), %r12d
movl -52(%rbp), %ebx
movl $16, %edi
callq _malloc
testq %rax, %rax
je LBB3_4
## %bb.5: ## in Loop: Header=BB3_1 Depth=1
movl %ebx, (%rax)
movl %r12d, 4(%rax)
testq %r15, %r15
je LBB3_7
## %bb.6: ## in Loop: Header=BB3_1 Depth=1
movq %r15, %rcx
cmpl %r12d, 4(%r15)
jle LBB3_9
LBB3_7: ## in Loop: Header=BB3_1 Depth=1
movq %r15, 8(%rax)
movq %rax, %r15
jmp LBB3_8
.p2align 4, 0x90
LBB3_9: ## Parent Loop BB3_1 Depth=1
## => This Inner Loop Header: Depth=2
movq %rcx, %rdx
movq 8(%rcx), %rcx
testq %rcx, %rcx
je LBB3_11
## %bb.10: ## in Loop: Header=BB3_9 Depth=2
cmpl %r12d, 4(%rcx)
jle LBB3_9
LBB3_11: ## in Loop: Header=BB3_1 Depth=1
movq %rcx, 8(%rax)
movq %rax, 8(%rdx)
jmp LBB3_8
.p2align 4, 0x90
LBB3_12: ## in Loop: Header=BB3_1 Depth=1
testq %r15, %r15
je LBB3_13
## %bb.14: ## in Loop: Header=BB3_1 Depth=1
movq 8(%r15), %rbx
movl (%r15), %esi
movl 4(%r15), %edx
leaq L_.str.2(%rip), %rdi
xorl %eax, %eax
callq _printf
movq %r15, %rdi
callq _free
movq %rbx, %r15
jmp LBB3_18
.p2align 4, 0x90
LBB3_15: ## in Loop: Header=BB3_1 Depth=1
movq %r15, %rbx
testq %r15, %r15
je LBB3_13
.p2align 4, 0x90
LBB3_16: ## Parent Loop BB3_1 Depth=1
## => This Inner Loop Header: Depth=2
movl (%rbx), %esi
movq %r13, %rdi
xorl %eax, %eax
callq _printf
movq 8(%rbx), %rbx
testq %rbx, %rbx
jne LBB3_16
jmp LBB3_18
LBB3_13: ## in Loop: Header=BB3_1 Depth=1
leaq L_str.14(%rip), %rdi
callq _puts
xorl %r15d, %r15d
jmp LBB3_18
LBB3_4: ## in Loop: Header=BB3_1 Depth=1
leaq L_str(%rip), %rdi
callq _puts
LBB3_8: ## in Loop: Header=BB3_1 Depth=1
movq %r14, %r12
leaq -44(%rbp), %r14
jmp LBB3_18
LBB3_19:
addq $24, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
.p2align 2, 0x90
.data_region jt32
.set L3_0_set_3, LBB3_3-LJTI3_0
.set L3_0_set_12, LBB3_12-LJTI3_0
.set L3_0_set_15, LBB3_15-LJTI3_0
.set L3_0_set_19, LBB3_19-LJTI3_0
LJTI3_0:
.long L3_0_set_3
.long L3_0_set_12
.long L3_0_set_15
.long L3_0_set_19
.end_data_region
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str.2: ## @.str.2
.asciz "%d with priority %d is processed"
L_.str.3: ## @.str.3
.asciz "%d "
L_.str.8: ## @.str.8
.asciz "%d"
L_.str.10: ## @.str.10
.asciz "%d %d"
L_str: ## @str
.asciz "Malloc Failed"
L_str.14: ## @str.14
.asciz "List is empty"
L_str.15: ## @str.15
.asciz "Enter 1 for enqueue"
L_str.16: ## @str.16
.asciz "Enter 2 for dequeue"
L_str.17: ## @str.17
.asciz "Enter 3 for display"
L_str.18: ## @str.18
.asciz "Enter 4 for EXIT"
L_str.19: ## @str.19
.asciz "Enter 1/2/3/4 :"
L_str.20: ## @str.20
.asciz "Enter priority and value respectively"
L_str.21: ## @str.21
.asciz "Enter value between 1 to 4"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _enqueue ; -- Begin function enqueue
.p2align 2
_enqueue: ; @enqueue
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x21, x2
mov x20, x1
mov x19, x0
mov w0, #16
bl _malloc
cbz x0, LBB0_4
; %bb.1:
stp w21, w20, [x0]
cbz x19, LBB0_3
; %bb.2:
ldr w8, [x19, #4]
cmp w8, w20
b.le LBB0_5
LBB0_3:
str x19, [x0, #8]
mov x19, x0
b LBB0_9
LBB0_4:
Lloh0:
adrp x0, l_str@PAGE
Lloh1:
add x0, x0, l_str@PAGEOFF
bl _puts
b LBB0_9
LBB0_5:
mov x8, x19
LBB0_6: ; =>This Inner Loop Header: Depth=1
mov x9, x8
ldr x8, [x8, #8]
cbz x8, LBB0_8
; %bb.7: ; in Loop: Header=BB0_6 Depth=1
ldr w10, [x8, #4]
cmp w10, w20
b.le LBB0_6
LBB0_8:
str x8, [x0, #8]
str x0, [x9, #8]
LBB0_9:
mov x0, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpAdd Lloh0, Lloh1
.cfi_endproc
; -- End function
.globl _dequeue ; -- Begin function dequeue
.p2align 2
_dequeue: ; @dequeue
.cfi_startproc
; %bb.0:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
cbz x0, LBB1_2
; %bb.1:
mov x20, x0
ldr x19, [x0, #8]
ldp w8, w9, [x0]
stp x8, x9, [sp]
Lloh2:
adrp x0, l_.str.2@PAGE
Lloh3:
add x0, x0, l_.str.2@PAGEOFF
bl _printf
mov x0, x20
bl _free
b LBB1_3
LBB1_2:
Lloh4:
adrp x0, l_str.14@PAGE
Lloh5:
add x0, x0, l_str.14@PAGEOFF
bl _puts
mov x19, #0
LBB1_3:
mov x0, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #48
ret
.loh AdrpAdd Lloh2, Lloh3
.loh AdrpAdd Lloh4, Lloh5
.cfi_endproc
; -- End function
.globl _display ; -- Begin function display
.p2align 2
_display: ; @display
.cfi_startproc
; %bb.0:
cbz x0, LBB2_4
; %bb.1:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x0
Lloh6:
adrp x20, l_.str.3@PAGE
Lloh7:
add x20, x20, l_.str.3@PAGEOFF
LBB2_2: ; =>This Inner Loop Header: Depth=1
ldr w8, [x19]
str x8, [sp]
mov x0, x20
bl _printf
ldr x19, [x19, #8]
cbnz x19, LBB2_2
; %bb.3:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #48
ret
LBB2_4:
.cfi_def_cfa wsp, 0
.cfi_same_value w30
.cfi_same_value w29
.cfi_same_value w19
.cfi_same_value w20
Lloh8:
adrp x0, l_str.14@PAGE
Lloh9:
add x0, x0, l_str.14@PAGEOFF
b _puts
.loh AdrpAdd Lloh6, Lloh7
.loh AdrpAdd Lloh8, Lloh9
.cfi_endproc
; -- End function
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
sub sp, sp, #128
.cfi_def_cfa_offset 128
stp x28, x27, [sp, #32] ; 16-byte Folded Spill
stp x26, x25, [sp, #48] ; 16-byte Folded Spill
stp x24, x23, [sp, #64] ; 16-byte Folded Spill
stp x22, x21, [sp, #80] ; 16-byte Folded Spill
stp x20, x19, [sp, #96] ; 16-byte Folded Spill
stp x29, x30, [sp, #112] ; 16-byte Folded Spill
add x29, sp, #112
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
.cfi_offset w27, -88
.cfi_offset w28, -96
Lloh10:
adrp x0, l_str.15@PAGE
Lloh11:
add x0, x0, l_str.15@PAGEOFF
bl _puts
Lloh12:
adrp x0, l_str.16@PAGE
Lloh13:
add x0, x0, l_str.16@PAGEOFF
bl _puts
Lloh14:
adrp x0, l_str.17@PAGE
Lloh15:
add x0, x0, l_str.17@PAGEOFF
bl _puts
Lloh16:
adrp x0, l_str.18@PAGE
Lloh17:
add x0, x0, l_str.18@PAGEOFF
bl _puts
mov x28, #0
add x24, sp, #28
Lloh18:
adrp x19, l_.str.8@PAGE
Lloh19:
add x19, x19, l_.str.8@PAGEOFF
Lloh20:
adrp x21, l_str.19@PAGE
Lloh21:
add x21, x21, l_str.19@PAGEOFF
Lloh22:
adrp x26, lJTI3_0@PAGE
Lloh23:
add x26, x26, lJTI3_0@PAGEOFF
add x20, sp, #20
Lloh24:
adrp x23, l_.str.10@PAGE
Lloh25:
add x23, x23, l_.str.10@PAGEOFF
Lloh26:
adrp x27, l_.str.3@PAGE
Lloh27:
add x27, x27, l_.str.3@PAGEOFF
b LBB3_4
LBB3_1: ; in Loop: Header=BB3_4 Depth=1
Lloh28:
adrp x0, l_str.21@PAGE
Lloh29:
add x0, x0, l_str.21@PAGEOFF
LBB3_2: ; in Loop: Header=BB3_4 Depth=1
bl _puts
LBB3_3: ; in Loop: Header=BB3_4 Depth=1
mov x0, x21
bl _puts
LBB3_4: ; =>This Loop Header: Depth=1
; Child Loop BB3_16 Depth 2
; Child Loop BB3_10 Depth 2
str x24, [sp]
mov x0, x19
bl _scanf
ldr w8, [sp, #28]
sub w8, w8, #1
cmp w8, #3
b.hi LBB3_1
; %bb.5: ; in Loop: Header=BB3_4 Depth=1
adr x9, LBB3_6
ldrb w10, [x26, x8]
add x9, x9, x10, lsl #2
br x9
LBB3_6: ; in Loop: Header=BB3_4 Depth=1
Lloh30:
adrp x0, l_str.20@PAGE
Lloh31:
add x0, x0, l_str.20@PAGEOFF
bl _puts
add x8, sp, #24
stp x20, x8, [sp]
mov x0, x23
bl _scanf
ldp w25, w22, [sp, #20]
mov w0, #16
bl _malloc
cbz x0, LBB3_18
; %bb.7: ; in Loop: Header=BB3_4 Depth=1
stp w22, w25, [x0]
cbz x28, LBB3_9
; %bb.8: ; in Loop: Header=BB3_4 Depth=1
ldr w9, [x28, #4]
mov x8, x28
cmp w9, w25
b.le LBB3_10
LBB3_9: ; in Loop: Header=BB3_4 Depth=1
str x28, [x0, #8]
mov x28, x0
b LBB3_3
LBB3_10: ; Parent Loop BB3_4 Depth=1
; => This Inner Loop Header: Depth=2
mov x9, x8
ldr x8, [x8, #8]
cbz x8, LBB3_12
; %bb.11: ; in Loop: Header=BB3_10 Depth=2
ldr w10, [x8, #4]
cmp w10, w25
b.le LBB3_10
LBB3_12: ; in Loop: Header=BB3_4 Depth=1
str x8, [x0, #8]
str x0, [x9, #8]
b LBB3_3
LBB3_13: ; in Loop: Header=BB3_4 Depth=1
cbz x28, LBB3_17
; %bb.14: ; in Loop: Header=BB3_4 Depth=1
ldr x22, [x28, #8]
ldp w8, w9, [x28]
stp x8, x9, [sp]
Lloh32:
adrp x0, l_.str.2@PAGE
Lloh33:
add x0, x0, l_.str.2@PAGEOFF
bl _printf
mov x0, x28
bl _free
mov x28, x22
b LBB3_3
LBB3_15: ; in Loop: Header=BB3_4 Depth=1
mov x25, x28
cbz x28, LBB3_17
LBB3_16: ; Parent Loop BB3_4 Depth=1
; => This Inner Loop Header: Depth=2
ldr w8, [x25]
str x8, [sp]
mov x0, x27
bl _printf
ldr x25, [x25, #8]
cbnz x25, LBB3_16
b LBB3_3
LBB3_17: ; in Loop: Header=BB3_4 Depth=1
Lloh34:
adrp x0, l_str.14@PAGE
Lloh35:
add x0, x0, l_str.14@PAGEOFF
b LBB3_2
LBB3_18: ; in Loop: Header=BB3_4 Depth=1
Lloh36:
adrp x0, l_str@PAGE
Lloh37:
add x0, x0, l_str@PAGEOFF
b LBB3_2
LBB3_19:
ldp x29, x30, [sp, #112] ; 16-byte Folded Reload
ldp x20, x19, [sp, #96] ; 16-byte Folded Reload
ldp x22, x21, [sp, #80] ; 16-byte Folded Reload
ldp x24, x23, [sp, #64] ; 16-byte Folded Reload
ldp x26, x25, [sp, #48] ; 16-byte Folded Reload
ldp x28, x27, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #128
ret
.loh AdrpAdd Lloh26, Lloh27
.loh AdrpAdd Lloh24, Lloh25
.loh AdrpAdd Lloh22, Lloh23
.loh AdrpAdd Lloh20, Lloh21
.loh AdrpAdd Lloh18, Lloh19
.loh AdrpAdd Lloh16, Lloh17
.loh AdrpAdd Lloh14, Lloh15
.loh AdrpAdd Lloh12, Lloh13
.loh AdrpAdd Lloh10, Lloh11
.loh AdrpAdd Lloh28, Lloh29
.loh AdrpAdd Lloh30, Lloh31
.loh AdrpAdd Lloh32, Lloh33
.loh AdrpAdd Lloh34, Lloh35
.loh AdrpAdd Lloh36, Lloh37
.cfi_endproc
.section __TEXT,__const
lJTI3_0:
.byte (LBB3_6-LBB3_6)>>2
.byte (LBB3_13-LBB3_6)>>2
.byte (LBB3_15-LBB3_6)>>2
.byte (LBB3_19-LBB3_6)>>2
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str.2: ; @.str.2
.asciz "%d with priority %d is processed"
l_.str.3: ; @.str.3
.asciz "%d "
l_.str.8: ; @.str.8
.asciz "%d"
l_.str.10: ; @.str.10
.asciz "%d %d"
l_str: ; @str
.asciz "Malloc Failed"
l_str.14: ; @str.14
.asciz "List is empty"
l_str.15: ; @str.15
.asciz "Enter 1 for enqueue"
l_str.16: ; @str.16
.asciz "Enter 2 for dequeue"
l_str.17: ; @str.17
.asciz "Enter 3 for display"
l_str.18: ; @str.18
.asciz "Enter 4 for EXIT"
l_str.19: ; @str.19
.asciz "Enter 1/2/3/4 :"
l_str.20: ; @str.20
.asciz "Enter priority and value respectively"
l_str.21: ; @str.21
.asciz "Enter value between 1 to 4"
.subsections_via_symbols
| the_stack_data/272311.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function i40e_mqprio_get_enabled_tc
_i40e_mqprio_get_enabled_tc: ## @i40e_mqprio_get_enabled_tc
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq (%rdi), %rax
movq 8(%rdi), %rcx
movq (%rcx,%rax,8), %rax
movl (%rax), %r15d
movl $1, %r14d
cmpl $2, %r15d
jl LBB0_3
## %bb.1:
movl $1, %ebx
movl $1, %r14d
.p2align 4, 0x90
LBB0_2: ## =>This Inner Loop Header: Depth=1
movl %ebx, %edi
callq _BIT
orl %eax, %r14d
incl %ebx
cmpl %ebx, %r15d
jne LBB0_2
LBB0_3:
movl %r14d, %eax
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.no_dead_strip _i40e_mqprio_get_enabled_tc
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function i40e_mqprio_get_enabled_tc
_i40e_mqprio_get_enabled_tc: ; @i40e_mqprio_get_enabled_tc
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
ldp x9, x8, [x0]
ldr x8, [x8, x9, lsl #3]
ldr w21, [x8]
cmp w21, #2
b.lt LBB0_3
; %bb.1:
mov w20, #1
mov w19, #1
LBB0_2: ; =>This Inner Loop Header: Depth=1
mov x0, x20
bl _BIT
orr w19, w0, w19
add w20, w20, #1
cmp w21, w20
b.ne LBB0_2
b LBB0_4
LBB0_3:
mov w19, #1
LBB0_4:
mov x0, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.cfi_endproc
; -- End function
.no_dead_strip _i40e_mqprio_get_enabled_tc
.subsections_via_symbols
| AnghaBench/linux/drivers/net/ethernet/intel/i40e/extr_i40e_main.c_i40e_mqprio_get_enabled_tc.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function rtl8xxxu_sw_scan_complete
_rtl8xxxu_sw_scan_complete: ## @rtl8xxxu_sw_scan_complete
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq (%rdi), %rbx
movq _REG_BEACON_CTRL@GOTPCREL(%rip), %r14
movl (%r14), %esi
movq %rbx, %rdi
callq _rtl8xxxu_read8
movq _BEACON_DISABLE_TSF_UPDATE@GOTPCREL(%rip), %rcx
movl (%rcx), %edx
notl %edx
andl %eax, %edx
movl (%r14), %esi
movq %rbx, %rdi
popq %rbx
popq %r14
popq %rbp
jmp _rtl8xxxu_write8 ## TAILCALL
.cfi_endproc
## -- End function
.comm _REG_BEACON_CTRL,4,2 ## @REG_BEACON_CTRL
.comm _BEACON_DISABLE_TSF_UPDATE,4,2 ## @BEACON_DISABLE_TSF_UPDATE
.no_dead_strip _rtl8xxxu_sw_scan_complete
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function rtl8xxxu_sw_scan_complete
_rtl8xxxu_sw_scan_complete: ; @rtl8xxxu_sw_scan_complete
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
ldr x19, [x0]
Lloh0:
adrp x20, _REG_BEACON_CTRL@GOTPAGE
Lloh1:
ldr x20, [x20, _REG_BEACON_CTRL@GOTPAGEOFF]
ldr w1, [x20]
mov x0, x19
bl _rtl8xxxu_read8
Lloh2:
adrp x8, _BEACON_DISABLE_TSF_UPDATE@GOTPAGE
Lloh3:
ldr x8, [x8, _BEACON_DISABLE_TSF_UPDATE@GOTPAGEOFF]
Lloh4:
ldr w8, [x8]
bic w2, w0, w8
ldr w1, [x20]
mov x0, x19
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _rtl8xxxu_write8
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpLdrGot Lloh0, Lloh1
.cfi_endproc
; -- End function
.comm _REG_BEACON_CTRL,4,2 ; @REG_BEACON_CTRL
.comm _BEACON_DISABLE_TSF_UPDATE,4,2 ; @BEACON_DISABLE_TSF_UPDATE
.no_dead_strip _rtl8xxxu_sw_scan_complete
.subsections_via_symbols
| AnghaBench/linux/drivers/net/wireless/realtek/rtl8xxxu/extr_rtl8xxxu_core.c_rtl8xxxu_sw_scan_complete.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function imx2_wdt_restart
_imx2_wdt_restart: ## @imx2_wdt_restart
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
callq _watchdog_get_drvdata
movq %rax, %r14
movq _IMX2_WDT_WCR_WDE@GOTPCREL(%rip), %rax
cmpq $0, 8(%r14)
jne LBB0_1
## %bb.2:
movq _IMX2_WDT_WCR_WDA@GOTPCREL(%rip), %rcx
jmp LBB0_3
LBB0_1:
movq _IMX2_WDT_WCR_SRS@GOTPCREL(%rip), %rcx
LBB0_3:
movl (%rcx), %ebx
orl (%rax), %ebx
movl (%r14), %edi
movq _IMX2_WDT_WCR@GOTPCREL(%rip), %r15
movl (%r15), %esi
movl %ebx, %edx
callq _regmap_write
movl (%r14), %edi
movl (%r15), %esi
movl %ebx, %edx
callq _regmap_write
movl (%r14), %edi
movl (%r15), %esi
movl %ebx, %edx
callq _regmap_write
movl $500, %edi ## imm = 0x1F4
callq _mdelay
xorl %eax, %eax
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _IMX2_WDT_WCR_WDE,4,2 ## @IMX2_WDT_WCR_WDE
.comm _IMX2_WDT_WCR_SRS,4,2 ## @IMX2_WDT_WCR_SRS
.comm _IMX2_WDT_WCR_WDA,4,2 ## @IMX2_WDT_WCR_WDA
.comm _IMX2_WDT_WCR,4,2 ## @IMX2_WDT_WCR
.no_dead_strip _imx2_wdt_restart
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function imx2_wdt_restart
_imx2_wdt_restart: ; @imx2_wdt_restart
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
bl _watchdog_get_drvdata
mov x19, x0
Lloh0:
adrp x8, _IMX2_WDT_WCR_WDE@GOTPAGE
Lloh1:
ldr x8, [x8, _IMX2_WDT_WCR_WDE@GOTPAGEOFF]
Lloh2:
ldr w8, [x8]
ldr x9, [x0, #8]
Lloh3:
adrp x10, _IMX2_WDT_WCR_WDA@GOTPAGE
Lloh4:
ldr x10, [x10, _IMX2_WDT_WCR_WDA@GOTPAGEOFF]
Lloh5:
adrp x11, _IMX2_WDT_WCR_SRS@GOTPAGE
Lloh6:
ldr x11, [x11, _IMX2_WDT_WCR_SRS@GOTPAGEOFF]
cmp x9, #0
csel x9, x10, x11, eq
ldr w9, [x9]
orr w20, w9, w8
ldr w0, [x0]
Lloh7:
adrp x21, _IMX2_WDT_WCR@GOTPAGE
Lloh8:
ldr x21, [x21, _IMX2_WDT_WCR@GOTPAGEOFF]
ldr w1, [x21]
mov x2, x20
bl _regmap_write
ldr w0, [x19]
ldr w1, [x21]
mov x2, x20
bl _regmap_write
ldr w0, [x19]
ldr w1, [x21]
mov x2, x20
bl _regmap_write
mov w0, #500
bl _mdelay
mov w0, #0
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpLdrGot Lloh7, Lloh8
.loh AdrpLdrGot Lloh5, Lloh6
.loh AdrpLdrGot Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _IMX2_WDT_WCR_WDE,4,2 ; @IMX2_WDT_WCR_WDE
.comm _IMX2_WDT_WCR_SRS,4,2 ; @IMX2_WDT_WCR_SRS
.comm _IMX2_WDT_WCR_WDA,4,2 ; @IMX2_WDT_WCR_WDA
.comm _IMX2_WDT_WCR,4,2 ; @IMX2_WDT_WCR
.no_dead_strip _imx2_wdt_restart
.subsections_via_symbols
| AnghaBench/linux/drivers/watchdog/extr_imx2_wdt.c_imx2_wdt_restart.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function avc_chroma_vt_4x8_msa
_avc_chroma_vt_4x8_msa: ## @avc_chroma_vt_4x8_msa
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $56, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %r8d, %r13d
movl %edx, %r15d
movq %rsi, %r14
movq %rdi, %r12
movl %ecx, %edi
callq ___msa_fill_b
movl %eax, %ebx
movl %r13d, %edi
callq ___msa_fill_b
movl %ebx, %edi
movl %eax, %esi
callq ___msa_ilvr_b
movl %eax, %ebx
movq %r12, %rdi
movl %r15d, %esi
callq _LD_UB5
leal (%r15,%r15,4), %eax
cltq
leaq (%r12,%rax,4), %rdi
movl %r15d, %esi
callq _LD_UB4
callq _ILVR_B4_UB
callq _ILVR_B4_UB
callq _ILVR_D2_UB
callq _ILVR_D2_UB
movl %ebx, %edx
movl %ebx, %ecx
callq _DOTP_UB2_UH
movl %ebx, %edx
movl %ebx, %ecx
callq _DOTP_UB2_UH
movl $3, %r8d
callq _SLLI_4V
movl $6, %r8d
callq _SRARI_H4_UH
movl $7, %r8d
callq _SAT_UH4_UH
callq _PCKEV_B2_UB
movl %r15d, 40(%rsp)
movq %r14, 32(%rsp)
movl $3, 24(%rsp)
movl $2, 16(%rsp)
movl $1, 8(%rsp)
movl $0, (%rsp)
xorl %edx, %edx
movl $1, %ecx
movl $2, %r8d
movl $3, %r9d
callq _ST_W8
addq $56, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.no_dead_strip _avc_chroma_vt_4x8_msa
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function avc_chroma_vt_4x8_msa
_avc_chroma_vt_4x8_msa: ; @avc_chroma_vt_4x8_msa
.cfi_startproc
; %bb.0:
sub sp, sp, #96
.cfi_def_cfa_offset 96
stp x24, x23, [sp, #32] ; 16-byte Folded Spill
stp x22, x21, [sp, #48] ; 16-byte Folded Spill
stp x20, x19, [sp, #64] ; 16-byte Folded Spill
stp x29, x30, [sp, #80] ; 16-byte Folded Spill
add x29, sp, #80
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x21, x4
mov x20, x2
mov x19, x1
mov x22, x0
mov x0, x3
bl ___msa_fill_b
mov x23, x0
mov x0, x21
bl ___msa_fill_b
mov x1, x0
mov x0, x23
bl ___msa_ilvr_b
mov x21, x0
mov x0, x22
mov x1, x20
bl _LD_UB5
add w8, w20, w20, lsl #2
add x0, x22, w8, sxtw #2
mov x1, x20
bl _LD_UB4
bl _ILVR_B4_UB
bl _ILVR_B4_UB
bl _ILVR_D2_UB
bl _ILVR_D2_UB
mov x2, x21
mov x3, x21
bl _DOTP_UB2_UH
mov x2, x21
mov x3, x21
bl _DOTP_UB2_UH
mov w4, #3
bl _SLLI_4V
mov w4, #6
bl _SRARI_H4_UH
mov w4, #7
bl _SAT_UH4_UH
bl _PCKEV_B2_UB
str w20, [sp, #16]
mov x8, #2
movk x8, #3, lsl #32
stp x8, x19, [sp]
mov w2, #0
mov w3, #1
mov w4, #2
mov w5, #3
mov w6, #0
mov w7, #1
bl _ST_W8
ldp x29, x30, [sp, #80] ; 16-byte Folded Reload
ldp x20, x19, [sp, #64] ; 16-byte Folded Reload
ldp x22, x21, [sp, #48] ; 16-byte Folded Reload
ldp x24, x23, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #96
ret
.cfi_endproc
; -- End function
.no_dead_strip _avc_chroma_vt_4x8_msa
.subsections_via_symbols
| AnghaBench/FFmpeg/libavcodec/mips/extr_h264chroma_msa.c_avc_chroma_vt_4x8_msa.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _fe_reg_r32 ## -- Begin function fe_reg_r32
.p2align 4, 0x90
_fe_reg_r32: ## @fe_reg_r32
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq _fe_reg_table@GOTPCREL(%rip), %rax
movq (%rax), %rax
movl %edi, %ecx
movl (%rax,%rcx,4), %edi
popq %rbp
jmp _fe_r32 ## TAILCALL
.cfi_endproc
## -- End function
.comm _fe_reg_table,8,3 ## @fe_reg_table
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _fe_reg_r32 ; -- Begin function fe_reg_r32
.p2align 2
_fe_reg_r32: ; @fe_reg_r32
.cfi_startproc
; %bb.0:
Lloh0:
adrp x8, _fe_reg_table@GOTPAGE
Lloh1:
ldr x8, [x8, _fe_reg_table@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
ldr w0, [x8, w0, uxtw #2]
b _fe_r32
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _fe_reg_table,8,3 ; @fe_reg_table
.subsections_via_symbols
| AnghaBench/openwrt/target/linux/ramips/files-4.14/drivers/net/ethernet/mediatek/extr_mtk_eth_soc.c_fe_reg_r32.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _gk104_gr_init_ppc_exceptions ## -- Begin function gk104_gr_init_ppc_exceptions
.p2align 4, 0x90
_gk104_gr_init_ppc_exceptions: ## @gk104_gr_init_ppc_exceptions
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl (%rdi), %ecx
testl %ecx, %ecx
jle LBB0_9
## %bb.1:
movq %rdi, %r15
movq 24(%rdi), %r14
movq 8(%rdi), %rax
xorl %r12d, %r12d
jmp LBB0_2
.p2align 4, 0x90
LBB0_7: ## in Loop: Header=BB0_2 Depth=1
movl (%r15), %ecx
LBB0_8: ## in Loop: Header=BB0_2 Depth=1
incq %r12
movslq %ecx, %rdx
cmpq %rdx, %r12
jge LBB0_9
LBB0_2: ## =>This Loop Header: Depth=1
## Child Loop BB0_4 Depth 2
cmpl $0, (%rax,%r12,4)
jle LBB0_8
## %bb.3: ## in Loop: Header=BB0_2 Depth=1
xorl %ebx, %ebx
jmp LBB0_4
.p2align 4, 0x90
LBB0_6: ## in Loop: Header=BB0_4 Depth=2
incl %ebx
cmpl (%rax,%r12,4), %ebx
jge LBB0_7
LBB0_4: ## Parent Loop BB0_2 Depth=1
## => This Inner Loop Header: Depth=2
movq 16(%r15), %rcx
movl (%rcx,%r12,4), %ecx
btl %ebx, %ecx
jae LBB0_6
## %bb.5: ## in Loop: Header=BB0_4 Depth=2
movl %r12d, %edi
movl %ebx, %esi
movl $56, %edx
callq _PPC_UNIT
movq %r14, %rdi
movl %eax, %esi
movl $-1073741824, %edx ## imm = 0xC0000000
callq _nvkm_wr32
movq 8(%r15), %rax
jmp LBB0_6
LBB0_9:
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _gk104_gr_init_ppc_exceptions ; -- Begin function gk104_gr_init_ppc_exceptions
.p2align 2
_gk104_gr_init_ppc_exceptions: ; @gk104_gr_init_ppc_exceptions
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
ldr w9, [x0]
cmp w9, #1
b.lt LBB0_9
; %bb.1:
mov x19, x0
mov x20, #0
ldr x21, [x0, #24]
ldr x8, [x0, #8]
b LBB0_4
LBB0_2: ; in Loop: Header=BB0_4 Depth=1
ldr w9, [x19]
LBB0_3: ; in Loop: Header=BB0_4 Depth=1
add x20, x20, #1
cmp x20, w9, sxtw
b.ge LBB0_9
LBB0_4: ; =>This Loop Header: Depth=1
; Child Loop BB0_7 Depth 2
ldr w10, [x8, x20, lsl #2]
cmp w10, #1
b.lt LBB0_3
; %bb.5: ; in Loop: Header=BB0_4 Depth=1
mov w22, #0
b LBB0_7
LBB0_6: ; in Loop: Header=BB0_7 Depth=2
add w22, w22, #1
ldr w9, [x8, x20, lsl #2]
cmp w22, w9
b.ge LBB0_2
LBB0_7: ; Parent Loop BB0_4 Depth=1
; => This Inner Loop Header: Depth=2
ldr x9, [x19, #16]
ldr w9, [x9, x20, lsl #2]
lsr w9, w9, w22
tbz w9, #0, LBB0_6
; %bb.8: ; in Loop: Header=BB0_7 Depth=2
mov x0, x20
mov x1, x22
mov w2, #56
bl _PPC_UNIT
mov x1, x0
mov x0, x21
mov w2, #-1073741824
bl _nvkm_wr32
ldr x8, [x19, #8]
b LBB0_6
LBB0_9:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.cfi_endproc
; -- End function
.subsections_via_symbols
| AnghaBench/linux/drivers/gpu/drm/nouveau/nvkm/engine/gr/extr_gk104.c_gk104_gr_init_ppc_exceptions.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function l2cap_select_mode
_l2cap_select_mode: ## @l2cap_select_mode
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
movl %edi, %eax
andl $-2, %eax
cmpl $128, %eax
jne LBB0_2
## %bb.1:
movl %edi, %ebx
callq _l2cap_mode_supported
testl %eax, %eax
jne LBB0_3
LBB0_2:
movq _L2CAP_MODE_BASIC@GOTPCREL(%rip), %rax
movl (%rax), %ebx
LBB0_3:
movl %ebx, %eax
addq $8, %rsp
popq %rbx
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _L2CAP_MODE_BASIC,4,2 ## @L2CAP_MODE_BASIC
.no_dead_strip _l2cap_select_mode
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function l2cap_select_mode
_l2cap_select_mode: ; @l2cap_select_mode
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
and w8, w0, #0xfffffffe
cmp w8, #128
b.ne LBB0_2
; %bb.1:
mov x19, x0
bl _l2cap_mode_supported
cbnz w0, LBB0_3
LBB0_2:
Lloh0:
adrp x8, _L2CAP_MODE_BASIC@GOTPAGE
Lloh1:
ldr x8, [x8, _L2CAP_MODE_BASIC@GOTPAGEOFF]
Lloh2:
ldr w19, [x8]
LBB0_3:
mov x0, x19
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _L2CAP_MODE_BASIC,4,2 ; @L2CAP_MODE_BASIC
.no_dead_strip _l2cap_select_mode
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/net/bluetooth/extr_l2cap.c_l2cap_select_mode.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function pci_dev_is_added
_pci_dev_is_added: ## @pci_dev_is_added
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rsi
movq _PCI_DEV_ADDED@GOTPCREL(%rip), %rax
movl (%rax), %edi
popq %rbp
jmp _test_bit ## TAILCALL
.cfi_endproc
## -- End function
.comm _PCI_DEV_ADDED,4,2 ## @PCI_DEV_ADDED
.no_dead_strip _pci_dev_is_added
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function pci_dev_is_added
_pci_dev_is_added: ; @pci_dev_is_added
.cfi_startproc
; %bb.0:
mov x1, x0
Lloh0:
adrp x8, _PCI_DEV_ADDED@GOTPAGE
Lloh1:
ldr x8, [x8, _PCI_DEV_ADDED@GOTPAGEOFF]
Lloh2:
ldr w0, [x8]
b _test_bit
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _PCI_DEV_ADDED,4,2 ; @PCI_DEV_ADDED
.no_dead_strip _pci_dev_is_added
.subsections_via_symbols
| AnghaBench/linux/drivers/pci/hotplug/extr_..pci.h_pci_dev_is_added.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _obs_data_item_get_int ## -- Begin function obs_data_item_get_int
.p2align 4, 0x90
_obs_data_item_get_int: ## @obs_data_item_get_int
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq _get_item_data@GOTPCREL(%rip), %rax
movl (%rax), %esi
popq %rbp
jmp _data_item_get_int ## TAILCALL
.cfi_endproc
## -- End function
.comm _get_item_data,4,2 ## @get_item_data
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _obs_data_item_get_int ; -- Begin function obs_data_item_get_int
.p2align 2
_obs_data_item_get_int: ; @obs_data_item_get_int
.cfi_startproc
; %bb.0:
Lloh0:
adrp x8, _get_item_data@GOTPAGE
Lloh1:
ldr x8, [x8, _get_item_data@GOTPAGEOFF]
Lloh2:
ldr w1, [x8]
b _data_item_get_int
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _get_item_data,4,2 ; @get_item_data
.subsections_via_symbols
| AnghaBench/obs-studio/libobs/extr_obs-data.c_obs_data_item_get_int.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function mrb_str_tr_s_bang
_mrb_str_tr_s_bang: ## @mrb_str_tr_s_bang
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movl %esi, %r14d
movq %rdi, %rbx
leaq L_.str(%rip), %rsi
leaq -24(%rbp), %rdx
leaq -20(%rbp), %rcx
callq _mrb_get_args
movl -24(%rbp), %edx
movl -20(%rbp), %ecx
movq _TRUE@GOTPCREL(%rip), %rax
movl (%rax), %r8d
movq %rbx, %rdi
movl %r14d, %esi
callq _str_tr
testq %rax, %rax
jne LBB0_2
## %bb.1:
xorl %eax, %eax
callq _mrb_nil_value
movl %eax, %r14d
LBB0_2:
movl %r14d, %eax
addq $16, %rsp
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "SS"
.comm _TRUE,4,2 ## @TRUE
.no_dead_strip _mrb_str_tr_s_bang
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function mrb_str_tr_s_bang
_mrb_str_tr_s_bang: ; @mrb_str_tr_s_bang
.cfi_startproc
; %bb.0:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x1
mov x20, x0
Lloh0:
adrp x1, l_.str@PAGE
Lloh1:
add x1, x1, l_.str@PAGEOFF
add x2, sp, #12
add x3, sp, #8
bl _mrb_get_args
ldp w3, w2, [sp, #8]
Lloh2:
adrp x8, _TRUE@GOTPAGE
Lloh3:
ldr x8, [x8, _TRUE@GOTPAGEOFF]
Lloh4:
ldr w4, [x8]
mov x0, x20
mov x1, x19
bl _str_tr
cbnz x0, LBB0_2
; %bb.1:
bl _mrb_nil_value
mov x19, x0
LBB0_2:
mov x0, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #48
ret
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpAdd Lloh0, Lloh1
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "SS"
.comm _TRUE,4,2 ; @TRUE
.no_dead_strip _mrb_str_tr_s_bang
.subsections_via_symbols
| AnghaBench/h2o/deps/mruby/mrbgems/mruby-string-ext/src/extr_string.c_mrb_str_tr_s_bang.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _ui_rect ## -- Begin function ui_rect
.p2align 4, 0x90
_ui_rect: ## @ui_rect
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movl %r9d, %edi
movl %r8d, %r14d
movl %ecx, %r15d
movl %edx, %r12d
movl %esi, %ebx
callq _SET_FOREGROUND
movl %ebx, %edi
movl %r12d, %esi
movl %r15d, %edx
movl %r14d, %ecx
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
jmp _FILL_RECTANGLE ## TAILCALL
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _ui_rect ; -- Begin function ui_rect
.p2align 2
_ui_rect: ; @ui_rect
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x0, x5
mov x19, x4
mov x20, x3
mov x21, x2
mov x22, x1
bl _SET_FOREGROUND
mov x0, x22
mov x1, x21
mov x2, x20
mov x3, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b _FILL_RECTANGLE
.cfi_endproc
; -- End function
.subsections_via_symbols
| AnghaBench/reactos/modules/rosapps/applications/net/tsclient/rdesktop/extr_xwin.c_ui_rect.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function serverworks_csb_filter
_serverworks_csb_filter: ## @serverworks_csb_filter
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rsi, %r13
movq %rdi, %r14
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -48(%rbp)
movq _ATA_ID_PROD_LEN@GOTPCREL(%rip), %rax
movl (%rax), %r12d
incl %r12d
movq %r12, %rax
callq ____chkstk_darwin
addq $15, %rax
andq $-16, %rax
subq %rax, %rsp
movq %rsp, %r15
movq (%r14), %rax
movq _ATA_DEV_ATA@GOTPCREL(%rip), %rcx
cmpq (%rcx), %rax
jne LBB0_1
## %bb.3:
movl 8(%r14), %edi
movq _ATA_ID_PROD@GOTPCREL(%rip), %rax
movl (%rax), %edx
movq %r15, %rsi
movl %r12d, %ecx
callq _ata_id_c_string
movq _csb_bad_ata100@GOTPCREL(%rip), %rax
movq (%rax), %rbx
movq (%rbx), %rdi
testq %rdi, %rdi
je LBB0_6
## %bb.4:
movq _ATA_SHIFT_UDMA@GOTPCREL(%rip), %rax
movb (%rax), %cl
movl $224, %r12d
shll %cl, %r12d
notl %r12d
addq $8, %rbx
.p2align 4, 0x90
LBB0_5: ## =>This Inner Loop Header: Depth=1
movq %r15, %rsi
callq _strcmp
negl %eax
movl $0, %eax
sbbl %eax, %eax
orl %r12d, %eax
cltq
andq %rax, %r13
movq (%rbx), %rdi
addq $8, %rbx
testq %rdi, %rdi
jne LBB0_5
LBB0_6:
movq %r14, %rdi
movq %r13, %rsi
callq _ata_bmdma_mode_filter
movq ___stack_chk_guard@GOTPCREL(%rip), %rcx
movq (%rcx), %rcx
cmpq -48(%rbp), %rcx
jne LBB0_8
## %bb.7:
leaq -40(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB0_1:
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -48(%rbp), %rax
jne LBB0_8
## %bb.2:
movq %r14, %rdi
movq %r13, %rsi
leaq -40(%rbp), %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
jmp _ata_bmdma_mode_filter ## TAILCALL
LBB0_8:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.comm _ATA_ID_PROD_LEN,4,2 ## @ATA_ID_PROD_LEN
.comm _ATA_DEV_ATA,8,3 ## @ATA_DEV_ATA
.comm _ATA_ID_PROD,4,2 ## @ATA_ID_PROD
.comm _csb_bad_ata100,8,3 ## @csb_bad_ata100
.comm _ATA_SHIFT_UDMA,4,2 ## @ATA_SHIFT_UDMA
.no_dead_strip _serverworks_csb_filter
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function serverworks_csb_filter
_serverworks_csb_filter: ; @serverworks_csb_filter
.cfi_startproc
; %bb.0:
stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
sub sp, sp, #16
mov x19, x1
mov x20, x0
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
stur x8, [x29, #-56]
Lloh3:
adrp x8, _ATA_ID_PROD_LEN@GOTPAGE
Lloh4:
ldr x8, [x8, _ATA_ID_PROD_LEN@GOTPAGEOFF]
Lloh5:
ldr w8, [x8]
add w3, w8, #1
mov x9, x3
Lloh6:
adrp x16, ___chkstk_darwin@GOTPAGE
Lloh7:
ldr x16, [x16, ___chkstk_darwin@GOTPAGEOFF]
blr x16
mov x8, sp
add x9, x3, #15
and x9, x9, #0x1fffffff0
sub x21, x8, x9
mov sp, x21
ldr x8, [x0]
Lloh8:
adrp x9, _ATA_DEV_ATA@GOTPAGE
Lloh9:
ldr x9, [x9, _ATA_DEV_ATA@GOTPAGEOFF]
Lloh10:
ldr x9, [x9]
cmp x8, x9
b.ne LBB0_6
; %bb.1:
ldr w0, [x20, #8]
Lloh11:
adrp x8, _ATA_ID_PROD@GOTPAGE
Lloh12:
ldr x8, [x8, _ATA_ID_PROD@GOTPAGEOFF]
Lloh13:
ldr w2, [x8]
mov x1, x21
; kill: def $w3 killed $w3 killed $x3
bl _ata_id_c_string
Lloh14:
adrp x8, _csb_bad_ata100@GOTPAGE
Lloh15:
ldr x8, [x8, _csb_bad_ata100@GOTPAGEOFF]
Lloh16:
ldr x8, [x8]
ldr x0, [x8]
cbz x0, LBB0_4
; %bb.2:
Lloh17:
adrp x9, _ATA_SHIFT_UDMA@GOTPAGE
Lloh18:
ldr x9, [x9, _ATA_SHIFT_UDMA@GOTPAGEOFF]
Lloh19:
ldr w9, [x9]
mov w10, #224
lsl w9, w10, w9
mvn w22, w9
add x23, x8, #8
LBB0_3: ; =>This Inner Loop Header: Depth=1
mov x1, x21
bl _strcmp
cmp w0, #0
csinv w8, w22, wzr, eq
sxtw x8, w8
and x19, x19, x8
ldr x0, [x23], #8
cbnz x0, LBB0_3
LBB0_4:
mov x0, x20
mov x1, x19
bl _ata_bmdma_mode_filter
ldur x8, [x29, #-56]
Lloh20:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh21:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh22:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_8
; %bb.5:
sub sp, x29, #48
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
ldp x24, x23, [sp], #64 ; 16-byte Folded Reload
ret
LBB0_6:
ldur x8, [x29, #-56]
Lloh23:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh24:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh25:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_8
; %bb.7:
mov x0, x20
mov x1, x19
sub sp, x29, #48
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
ldp x24, x23, [sp], #64 ; 16-byte Folded Reload
b _ata_bmdma_mode_filter
LBB0_8:
bl ___stack_chk_fail
.loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10
.loh AdrpLdrGot Lloh6, Lloh7
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh14, Lloh15, Lloh16
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh17, Lloh18, Lloh19
.loh AdrpLdrGotLdr Lloh20, Lloh21, Lloh22
.loh AdrpLdrGotLdr Lloh23, Lloh24, Lloh25
.cfi_endproc
; -- End function
.comm _ATA_ID_PROD_LEN,4,2 ; @ATA_ID_PROD_LEN
.comm _ATA_DEV_ATA,8,3 ; @ATA_DEV_ATA
.comm _ATA_ID_PROD,4,2 ; @ATA_ID_PROD
.comm _csb_bad_ata100,8,3 ; @csb_bad_ata100
.comm _ATA_SHIFT_UDMA,4,2 ; @ATA_SHIFT_UDMA
.no_dead_strip _serverworks_csb_filter
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/drivers/ata/extr_pata_serverworks.c_serverworks_csb_filter.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _foo ## -- Begin function foo
.p2align 4, 0x90
_foo: ## @foo
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
## kill: def $edi killed $edi def $rdi
leal 1(,%rdi,4), %eax
movl %edi, %ecx
andl $1, %ecx
negl %ecx
andl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _bar ## -- Begin function bar
.p2align 4, 0x90
_bar: ## @bar
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
.p2align 4, 0x90
LBB1_1: ## =>This Inner Loop Header: Depth=1
movl %edi, %eax
shrl %edi
cmpl $100, %eax
jg LBB1_1
## %bb.2:
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _main ## -- Begin function main
.p2align 4, 0x90
_main: ## @main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %edi, %edi
callq *_Fps(%rip)
movl $1, %edi
callq *_Fps+8(%rip)
movl $2, %edi
callq *_Fps(%rip)
movl $3, %edi
callq *_Fps+8(%rip)
movl $4, %edi
callq *_Fps(%rip)
xorl %eax, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.section __DATA,__data
.globl _Fps ## @Fps
.p2align 4
_Fps:
.quad _foo
.quad _bar
.quad 0
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _foo ; -- Begin function foo
.p2align 2
_foo: ; @foo
.cfi_startproc
; %bb.0:
sbfx w8, w0, #0, #1
mov w9, #1
bfi w9, w0, #2, #30
and w0, w8, w9
ret
.cfi_endproc
; -- End function
.globl _bar ; -- Begin function bar
.p2align 2
_bar: ; @bar
.cfi_startproc
; %bb.0:
LBB1_1: ; =>This Inner Loop Header: Depth=1
mov x8, x0
lsr w0, w0, #1
cmp w8, #100
b.gt LBB1_1
; %bb.2:
mov x0, x8
ret
.cfi_endproc
; -- End function
.globl _main ; -- Begin function main
.p2align 2
_main: ; @main
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
Lloh0:
adrp x19, _Fps@PAGE
Lloh1:
add x19, x19, _Fps@PAGEOFF
ldr x8, [x19]
mov w0, #0
blr x8
ldr x8, [x19, #8]
mov w0, #1
blr x8
ldr x8, [x19]
mov w0, #2
blr x8
ldr x8, [x19, #8]
mov w0, #3
blr x8
ldr x8, [x19]
mov w0, #4
blr x8
mov w0, #0
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
ret
.loh AdrpAdd Lloh0, Lloh1
.cfi_endproc
; -- End function
.section __DATA,__data
.globl _Fps ; @Fps
.p2align 3
_Fps:
.quad _foo
.quad _bar
.quad 0
.subsections_via_symbols
| the_stack_data/85495.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function check_previous_track_selection
_check_previous_track_selection: ## @check_previous_track_selection
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
cmpq $0, (%rdi)
je LBB0_13
## %bb.1:
movq %rdi, %r15
movq 8(%rdi), %r12
callq _track_layout_hash
movq %rax, %r14
movq (%r15), %rsi
movq %rax, %rdi
callq _strcmp
testq %rax, %rax
je LBB0_12
## %bb.2:
movq _STREAM_TYPE_COUNT@GOTPCREL(%rip), %r8
movl (%r8), %edi
testl %edi, %edi
jle LBB0_11
## %bb.3:
movq _NUM_PTRACKS@GOTPCREL(%rip), %rcx
movl (%rcx), %esi
xorl %edx, %edx
jmp LBB0_4
.p2align 4, 0x90
LBB0_9: ## in Loop: Header=BB0_4 Depth=1
movl (%r8), %edi
LBB0_10: ## in Loop: Header=BB0_4 Depth=1
incq %rdx
movslq %edi, %rax
cmpq %rax, %rdx
jge LBB0_11
LBB0_4: ## =>This Loop Header: Depth=1
## Child Loop BB0_6 Depth 2
testl %esi, %esi
jle LBB0_10
## %bb.5: ## in Loop: Header=BB0_4 Depth=1
movq (%r12), %rdi
xorl %eax, %eax
jmp LBB0_6
.p2align 4, 0x90
LBB0_8: ## in Loop: Header=BB0_6 Depth=2
incq %rax
movslq %esi, %rbx
cmpq %rbx, %rax
jge LBB0_9
LBB0_6: ## Parent Loop BB0_4 Depth=1
## => This Inner Loop Header: Depth=2
movq (%rdi,%rax,8), %rbx
cmpl $0, (%rbx,%rdx,4)
js LBB0_8
## %bb.7: ## in Loop: Header=BB0_6 Depth=2
xorl %esi, %esi
testq %rax, %rax
sete %sil
orl $-2, %esi
movl %esi, (%rbx,%rdx,4)
movl (%rcx), %esi
jmp LBB0_8
LBB0_13:
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
LBB0_11:
movq (%r15), %rdi
callq _talloc_free
movq $0, (%r15)
LBB0_12:
movq %r14, %rdi
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
jmp _talloc_free ## TAILCALL
.cfi_endproc
## -- End function
.comm _STREAM_TYPE_COUNT,4,2 ## @STREAM_TYPE_COUNT
.comm _NUM_PTRACKS,4,2 ## @NUM_PTRACKS
.no_dead_strip _check_previous_track_selection
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function check_previous_track_selection
_check_previous_track_selection: ; @check_previous_track_selection
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
ldr x8, [x0]
cbz x8, LBB0_11
; %bb.1:
mov x19, x0
ldr x21, [x0, #8]
bl _track_layout_hash
mov x20, x0
ldr x1, [x19]
bl _strcmp
cbz x0, LBB0_13
; %bb.2:
Lloh0:
adrp x8, _STREAM_TYPE_COUNT@GOTPAGE
Lloh1:
ldr x8, [x8, _STREAM_TYPE_COUNT@GOTPAGEOFF]
ldr w13, [x8]
cmp w13, #1
b.lt LBB0_12
; %bb.3:
mov x9, #0
Lloh2:
adrp x10, _NUM_PTRACKS@GOTPAGE
Lloh3:
ldr x10, [x10, _NUM_PTRACKS@GOTPAGEOFF]
ldr w12, [x10]
mov w11, #-2
b LBB0_6
LBB0_4: ; in Loop: Header=BB0_6 Depth=1
ldr w13, [x8]
LBB0_5: ; in Loop: Header=BB0_6 Depth=1
add x9, x9, #1
cmp x9, w13, sxtw
b.ge LBB0_12
LBB0_6: ; =>This Loop Header: Depth=1
; Child Loop BB0_9 Depth 2
cmp w12, #1
b.lt LBB0_5
; %bb.7: ; in Loop: Header=BB0_6 Depth=1
mov x13, #0
ldr x14, [x21]
b LBB0_9
LBB0_8: ; in Loop: Header=BB0_9 Depth=2
add x13, x13, #1
cmp x13, w12, sxtw
b.ge LBB0_4
LBB0_9: ; Parent Loop BB0_6 Depth=1
; => This Inner Loop Header: Depth=2
ldr x15, [x14, x13, lsl #3]
ldr w16, [x15, x9, lsl #2]
tbnz w16, #31, LBB0_8
; %bb.10: ; in Loop: Header=BB0_9 Depth=2
cmp x13, #0
cinc w12, w11, eq
str w12, [x15, x9, lsl #2]
ldr w12, [x10]
b LBB0_8
LBB0_11:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
LBB0_12:
ldr x0, [x19]
bl _talloc_free
str xzr, [x19]
LBB0_13:
mov x0, x20
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
b _talloc_free
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGot Lloh2, Lloh3
.cfi_endproc
; -- End function
.comm _STREAM_TYPE_COUNT,4,2 ; @STREAM_TYPE_COUNT
.comm _NUM_PTRACKS,4,2 ; @NUM_PTRACKS
.no_dead_strip _check_previous_track_selection
.subsections_via_symbols
| AnghaBench/mpv/player/extr_loadfile.c_check_previous_track_selection.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _test_int8_t__shift_0_0 ## -- Begin function test_int8_t__shift_0_0
.p2align 4, 0x90
_test_int8_t__shift_0_0: ## @test_int8_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_1 ## -- Begin function test_int8_t__shift_0_1
.p2align 4, 0x90
_test_int8_t__shift_0_1: ## @test_int8_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_2 ## -- Begin function test_int8_t__shift_0_2
.p2align 4, 0x90
_test_int8_t__shift_0_2: ## @test_int8_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_3 ## -- Begin function test_int8_t__shift_0_3
.p2align 4, 0x90
_test_int8_t__shift_0_3: ## @test_int8_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_4 ## -- Begin function test_int8_t__shift_0_4
.p2align 4, 0x90
_test_int8_t__shift_0_4: ## @test_int8_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_5 ## -- Begin function test_int8_t__shift_0_5
.p2align 4, 0x90
_test_int8_t__shift_0_5: ## @test_int8_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_6 ## -- Begin function test_int8_t__shift_0_6
.p2align 4, 0x90
_test_int8_t__shift_0_6: ## @test_int8_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_7 ## -- Begin function test_int8_t__shift_0_7
.p2align 4, 0x90
_test_int8_t__shift_0_7: ## @test_int8_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_8 ## -- Begin function test_int8_t__shift_0_8
.p2align 4, 0x90
_test_int8_t__shift_0_8: ## @test_int8_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_9 ## -- Begin function test_int8_t__shift_0_9
.p2align 4, 0x90
_test_int8_t__shift_0_9: ## @test_int8_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_10 ## -- Begin function test_int8_t__shift_0_10
.p2align 4, 0x90
_test_int8_t__shift_0_10: ## @test_int8_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_0_11 ## -- Begin function test_int8_t__shift_0_11
.p2align 4, 0x90
_test_int8_t__shift_0_11: ## @test_int8_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_0 ## -- Begin function test_int8_t__shift_1_0
.p2align 4, 0x90
_test_int8_t__shift_1_0: ## @test_int8_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_1 ## -- Begin function test_int8_t__shift_1_1
.p2align 4, 0x90
_test_int8_t__shift_1_1: ## @test_int8_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_2 ## -- Begin function test_int8_t__shift_1_2
.p2align 4, 0x90
_test_int8_t__shift_1_2: ## @test_int8_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_3 ## -- Begin function test_int8_t__shift_1_3
.p2align 4, 0x90
_test_int8_t__shift_1_3: ## @test_int8_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_4 ## -- Begin function test_int8_t__shift_1_4
.p2align 4, 0x90
_test_int8_t__shift_1_4: ## @test_int8_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_5 ## -- Begin function test_int8_t__shift_1_5
.p2align 4, 0x90
_test_int8_t__shift_1_5: ## @test_int8_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_6 ## -- Begin function test_int8_t__shift_1_6
.p2align 4, 0x90
_test_int8_t__shift_1_6: ## @test_int8_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_7 ## -- Begin function test_int8_t__shift_1_7
.p2align 4, 0x90
_test_int8_t__shift_1_7: ## @test_int8_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_8 ## -- Begin function test_int8_t__shift_1_8
.p2align 4, 0x90
_test_int8_t__shift_1_8: ## @test_int8_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $2, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_9 ## -- Begin function test_int8_t__shift_1_9
.p2align 4, 0x90
_test_int8_t__shift_1_9: ## @test_int8_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_10 ## -- Begin function test_int8_t__shift_1_10
.p2align 4, 0x90
_test_int8_t__shift_1_10: ## @test_int8_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $2, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_1_11 ## -- Begin function test_int8_t__shift_1_11
.p2align 4, 0x90
_test_int8_t__shift_1_11: ## @test_int8_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_0 ## -- Begin function test_int8_t__shift_2_0
.p2align 4, 0x90
_test_int8_t__shift_2_0: ## @test_int8_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_1 ## -- Begin function test_int8_t__shift_2_1
.p2align 4, 0x90
_test_int8_t__shift_2_1: ## @test_int8_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_2 ## -- Begin function test_int8_t__shift_2_2
.p2align 4, 0x90
_test_int8_t__shift_2_2: ## @test_int8_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_3 ## -- Begin function test_int8_t__shift_2_3
.p2align 4, 0x90
_test_int8_t__shift_2_3: ## @test_int8_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $2, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_4 ## -- Begin function test_int8_t__shift_2_4
.p2align 4, 0x90
_test_int8_t__shift_2_4: ## @test_int8_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_5 ## -- Begin function test_int8_t__shift_2_5
.p2align 4, 0x90
_test_int8_t__shift_2_5: ## @test_int8_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $2, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_6 ## -- Begin function test_int8_t__shift_2_6
.p2align 4, 0x90
_test_int8_t__shift_2_6: ## @test_int8_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_7 ## -- Begin function test_int8_t__shift_2_7
.p2align 4, 0x90
_test_int8_t__shift_2_7: ## @test_int8_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_8 ## -- Begin function test_int8_t__shift_2_8
.p2align 4, 0x90
_test_int8_t__shift_2_8: ## @test_int8_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $4, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_9 ## -- Begin function test_int8_t__shift_2_9
.p2align 4, 0x90
_test_int8_t__shift_2_9: ## @test_int8_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_10 ## -- Begin function test_int8_t__shift_2_10
.p2align 4, 0x90
_test_int8_t__shift_2_10: ## @test_int8_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $4, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_2_11 ## -- Begin function test_int8_t__shift_2_11
.p2align 4, 0x90
_test_int8_t__shift_2_11: ## @test_int8_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_0 ## -- Begin function test_int8_t__shift_3_0
.p2align 4, 0x90
_test_int8_t__shift_3_0: ## @test_int8_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_1 ## -- Begin function test_int8_t__shift_3_1
.p2align 4, 0x90
_test_int8_t__shift_3_1: ## @test_int8_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_2 ## -- Begin function test_int8_t__shift_3_2
.p2align 4, 0x90
_test_int8_t__shift_3_2: ## @test_int8_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_3 ## -- Begin function test_int8_t__shift_3_3
.p2align 4, 0x90
_test_int8_t__shift_3_3: ## @test_int8_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $3, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_4 ## -- Begin function test_int8_t__shift_3_4
.p2align 4, 0x90
_test_int8_t__shift_3_4: ## @test_int8_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_5 ## -- Begin function test_int8_t__shift_3_5
.p2align 4, 0x90
_test_int8_t__shift_3_5: ## @test_int8_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $3, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_6 ## -- Begin function test_int8_t__shift_3_6
.p2align 4, 0x90
_test_int8_t__shift_3_6: ## @test_int8_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_7 ## -- Begin function test_int8_t__shift_3_7
.p2align 4, 0x90
_test_int8_t__shift_3_7: ## @test_int8_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_8 ## -- Begin function test_int8_t__shift_3_8
.p2align 4, 0x90
_test_int8_t__shift_3_8: ## @test_int8_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $8, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_9 ## -- Begin function test_int8_t__shift_3_9
.p2align 4, 0x90
_test_int8_t__shift_3_9: ## @test_int8_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_10 ## -- Begin function test_int8_t__shift_3_10
.p2align 4, 0x90
_test_int8_t__shift_3_10: ## @test_int8_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $8, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_3_11 ## -- Begin function test_int8_t__shift_3_11
.p2align 4, 0x90
_test_int8_t__shift_3_11: ## @test_int8_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_0 ## -- Begin function test_int8_t__shift_4_0
.p2align 4, 0x90
_test_int8_t__shift_4_0: ## @test_int8_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_1 ## -- Begin function test_int8_t__shift_4_1
.p2align 4, 0x90
_test_int8_t__shift_4_1: ## @test_int8_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_2 ## -- Begin function test_int8_t__shift_4_2
.p2align 4, 0x90
_test_int8_t__shift_4_2: ## @test_int8_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_3 ## -- Begin function test_int8_t__shift_4_3
.p2align 4, 0x90
_test_int8_t__shift_4_3: ## @test_int8_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $4, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_4 ## -- Begin function test_int8_t__shift_4_4
.p2align 4, 0x90
_test_int8_t__shift_4_4: ## @test_int8_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_5 ## -- Begin function test_int8_t__shift_4_5
.p2align 4, 0x90
_test_int8_t__shift_4_5: ## @test_int8_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $4, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_6 ## -- Begin function test_int8_t__shift_4_6
.p2align 4, 0x90
_test_int8_t__shift_4_6: ## @test_int8_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_7 ## -- Begin function test_int8_t__shift_4_7
.p2align 4, 0x90
_test_int8_t__shift_4_7: ## @test_int8_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_8 ## -- Begin function test_int8_t__shift_4_8
.p2align 4, 0x90
_test_int8_t__shift_4_8: ## @test_int8_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $16, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_9 ## -- Begin function test_int8_t__shift_4_9
.p2align 4, 0x90
_test_int8_t__shift_4_9: ## @test_int8_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_10 ## -- Begin function test_int8_t__shift_4_10
.p2align 4, 0x90
_test_int8_t__shift_4_10: ## @test_int8_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $16, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_4_11 ## -- Begin function test_int8_t__shift_4_11
.p2align 4, 0x90
_test_int8_t__shift_4_11: ## @test_int8_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_0 ## -- Begin function test_int8_t__shift_5_0
.p2align 4, 0x90
_test_int8_t__shift_5_0: ## @test_int8_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_1 ## -- Begin function test_int8_t__shift_5_1
.p2align 4, 0x90
_test_int8_t__shift_5_1: ## @test_int8_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_2 ## -- Begin function test_int8_t__shift_5_2
.p2align 4, 0x90
_test_int8_t__shift_5_2: ## @test_int8_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_3 ## -- Begin function test_int8_t__shift_5_3
.p2align 4, 0x90
_test_int8_t__shift_5_3: ## @test_int8_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $5, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_4 ## -- Begin function test_int8_t__shift_5_4
.p2align 4, 0x90
_test_int8_t__shift_5_4: ## @test_int8_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_5 ## -- Begin function test_int8_t__shift_5_5
.p2align 4, 0x90
_test_int8_t__shift_5_5: ## @test_int8_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $5, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_6 ## -- Begin function test_int8_t__shift_5_6
.p2align 4, 0x90
_test_int8_t__shift_5_6: ## @test_int8_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_7 ## -- Begin function test_int8_t__shift_5_7
.p2align 4, 0x90
_test_int8_t__shift_5_7: ## @test_int8_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_8 ## -- Begin function test_int8_t__shift_5_8
.p2align 4, 0x90
_test_int8_t__shift_5_8: ## @test_int8_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $32, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_9 ## -- Begin function test_int8_t__shift_5_9
.p2align 4, 0x90
_test_int8_t__shift_5_9: ## @test_int8_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_10 ## -- Begin function test_int8_t__shift_5_10
.p2align 4, 0x90
_test_int8_t__shift_5_10: ## @test_int8_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $32, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_5_11 ## -- Begin function test_int8_t__shift_5_11
.p2align 4, 0x90
_test_int8_t__shift_5_11: ## @test_int8_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_0 ## -- Begin function test_int8_t__shift_6_0
.p2align 4, 0x90
_test_int8_t__shift_6_0: ## @test_int8_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_1 ## -- Begin function test_int8_t__shift_6_1
.p2align 4, 0x90
_test_int8_t__shift_6_1: ## @test_int8_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_2 ## -- Begin function test_int8_t__shift_6_2
.p2align 4, 0x90
_test_int8_t__shift_6_2: ## @test_int8_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_3 ## -- Begin function test_int8_t__shift_6_3
.p2align 4, 0x90
_test_int8_t__shift_6_3: ## @test_int8_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $6, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_4 ## -- Begin function test_int8_t__shift_6_4
.p2align 4, 0x90
_test_int8_t__shift_6_4: ## @test_int8_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_5 ## -- Begin function test_int8_t__shift_6_5
.p2align 4, 0x90
_test_int8_t__shift_6_5: ## @test_int8_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $6, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_6 ## -- Begin function test_int8_t__shift_6_6
.p2align 4, 0x90
_test_int8_t__shift_6_6: ## @test_int8_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_7 ## -- Begin function test_int8_t__shift_6_7
.p2align 4, 0x90
_test_int8_t__shift_6_7: ## @test_int8_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_8 ## -- Begin function test_int8_t__shift_6_8
.p2align 4, 0x90
_test_int8_t__shift_6_8: ## @test_int8_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $64, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_9 ## -- Begin function test_int8_t__shift_6_9
.p2align 4, 0x90
_test_int8_t__shift_6_9: ## @test_int8_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_10 ## -- Begin function test_int8_t__shift_6_10
.p2align 4, 0x90
_test_int8_t__shift_6_10: ## @test_int8_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $64, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_6_11 ## -- Begin function test_int8_t__shift_6_11
.p2align 4, 0x90
_test_int8_t__shift_6_11: ## @test_int8_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_0 ## -- Begin function test_int8_t__shift_7_0
.p2align 4, 0x90
_test_int8_t__shift_7_0: ## @test_int8_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb %dil, %dil
movl $-10, %ecx
movl $-40, %eax
cmovsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_1 ## -- Begin function test_int8_t__shift_7_1
.p2align 4, 0x90
_test_int8_t__shift_7_1: ## @test_int8_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb %dil, %dil
movl $-10, %ecx
movl $-40, %eax
cmovnsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_2 ## -- Begin function test_int8_t__shift_7_2
.p2align 4, 0x90
_test_int8_t__shift_7_2: ## @test_int8_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_3 ## -- Begin function test_int8_t__shift_7_3
.p2align 4, 0x90
_test_int8_t__shift_7_3: ## @test_int8_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_4 ## -- Begin function test_int8_t__shift_7_4
.p2align 4, 0x90
_test_int8_t__shift_7_4: ## @test_int8_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_5 ## -- Begin function test_int8_t__shift_7_5
.p2align 4, 0x90
_test_int8_t__shift_7_5: ## @test_int8_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_6 ## -- Begin function test_int8_t__shift_7_6
.p2align 4, 0x90
_test_int8_t__shift_7_6: ## @test_int8_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
cmpb $0, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_7 ## -- Begin function test_int8_t__shift_7_7
.p2align 4, 0x90
_test_int8_t__shift_7_7: ## @test_int8_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
cmpb $0, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovnsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_8 ## -- Begin function test_int8_t__shift_7_8
.p2align 4, 0x90
_test_int8_t__shift_7_8: ## @test_int8_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movb (%rdi), %al
notb %al
shrb $7, %al
movzbl %al, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_9 ## -- Begin function test_int8_t__shift_7_9
.p2align 4, 0x90
_test_int8_t__shift_7_9: ## @test_int8_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $7, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_10 ## -- Begin function test_int8_t__shift_7_10
.p2align 4, 0x90
_test_int8_t__shift_7_10: ## @test_int8_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movb (%rdi), %al
notb %al
shrb $7, %al
movzbl %al, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int8_t__shift_7_11 ## -- Begin function test_int8_t__shift_7_11
.p2align 4, 0x90
_test_int8_t__shift_7_11: ## @test_int8_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $7, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_0 ## -- Begin function test_uint8_t__shift_0_0
.p2align 4, 0x90
_test_uint8_t__shift_0_0: ## @test_uint8_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_1 ## -- Begin function test_uint8_t__shift_0_1
.p2align 4, 0x90
_test_uint8_t__shift_0_1: ## @test_uint8_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_2 ## -- Begin function test_uint8_t__shift_0_2
.p2align 4, 0x90
_test_uint8_t__shift_0_2: ## @test_uint8_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_3 ## -- Begin function test_uint8_t__shift_0_3
.p2align 4, 0x90
_test_uint8_t__shift_0_3: ## @test_uint8_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_4 ## -- Begin function test_uint8_t__shift_0_4
.p2align 4, 0x90
_test_uint8_t__shift_0_4: ## @test_uint8_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_5 ## -- Begin function test_uint8_t__shift_0_5
.p2align 4, 0x90
_test_uint8_t__shift_0_5: ## @test_uint8_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_6 ## -- Begin function test_uint8_t__shift_0_6
.p2align 4, 0x90
_test_uint8_t__shift_0_6: ## @test_uint8_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_7 ## -- Begin function test_uint8_t__shift_0_7
.p2align 4, 0x90
_test_uint8_t__shift_0_7: ## @test_uint8_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_8 ## -- Begin function test_uint8_t__shift_0_8
.p2align 4, 0x90
_test_uint8_t__shift_0_8: ## @test_uint8_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_9 ## -- Begin function test_uint8_t__shift_0_9
.p2align 4, 0x90
_test_uint8_t__shift_0_9: ## @test_uint8_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_10 ## -- Begin function test_uint8_t__shift_0_10
.p2align 4, 0x90
_test_uint8_t__shift_0_10: ## @test_uint8_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_0_11 ## -- Begin function test_uint8_t__shift_0_11
.p2align 4, 0x90
_test_uint8_t__shift_0_11: ## @test_uint8_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_0 ## -- Begin function test_uint8_t__shift_1_0
.p2align 4, 0x90
_test_uint8_t__shift_1_0: ## @test_uint8_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_1 ## -- Begin function test_uint8_t__shift_1_1
.p2align 4, 0x90
_test_uint8_t__shift_1_1: ## @test_uint8_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_2 ## -- Begin function test_uint8_t__shift_1_2
.p2align 4, 0x90
_test_uint8_t__shift_1_2: ## @test_uint8_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_3 ## -- Begin function test_uint8_t__shift_1_3
.p2align 4, 0x90
_test_uint8_t__shift_1_3: ## @test_uint8_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_4 ## -- Begin function test_uint8_t__shift_1_4
.p2align 4, 0x90
_test_uint8_t__shift_1_4: ## @test_uint8_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_5 ## -- Begin function test_uint8_t__shift_1_5
.p2align 4, 0x90
_test_uint8_t__shift_1_5: ## @test_uint8_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_6 ## -- Begin function test_uint8_t__shift_1_6
.p2align 4, 0x90
_test_uint8_t__shift_1_6: ## @test_uint8_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_7 ## -- Begin function test_uint8_t__shift_1_7
.p2align 4, 0x90
_test_uint8_t__shift_1_7: ## @test_uint8_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_8 ## -- Begin function test_uint8_t__shift_1_8
.p2align 4, 0x90
_test_uint8_t__shift_1_8: ## @test_uint8_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $2, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_9 ## -- Begin function test_uint8_t__shift_1_9
.p2align 4, 0x90
_test_uint8_t__shift_1_9: ## @test_uint8_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_10 ## -- Begin function test_uint8_t__shift_1_10
.p2align 4, 0x90
_test_uint8_t__shift_1_10: ## @test_uint8_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $2, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_1_11 ## -- Begin function test_uint8_t__shift_1_11
.p2align 4, 0x90
_test_uint8_t__shift_1_11: ## @test_uint8_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_0 ## -- Begin function test_uint8_t__shift_2_0
.p2align 4, 0x90
_test_uint8_t__shift_2_0: ## @test_uint8_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_1 ## -- Begin function test_uint8_t__shift_2_1
.p2align 4, 0x90
_test_uint8_t__shift_2_1: ## @test_uint8_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_2 ## -- Begin function test_uint8_t__shift_2_2
.p2align 4, 0x90
_test_uint8_t__shift_2_2: ## @test_uint8_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_3 ## -- Begin function test_uint8_t__shift_2_3
.p2align 4, 0x90
_test_uint8_t__shift_2_3: ## @test_uint8_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $2, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_4 ## -- Begin function test_uint8_t__shift_2_4
.p2align 4, 0x90
_test_uint8_t__shift_2_4: ## @test_uint8_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_5 ## -- Begin function test_uint8_t__shift_2_5
.p2align 4, 0x90
_test_uint8_t__shift_2_5: ## @test_uint8_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $2, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_6 ## -- Begin function test_uint8_t__shift_2_6
.p2align 4, 0x90
_test_uint8_t__shift_2_6: ## @test_uint8_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_7 ## -- Begin function test_uint8_t__shift_2_7
.p2align 4, 0x90
_test_uint8_t__shift_2_7: ## @test_uint8_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_8 ## -- Begin function test_uint8_t__shift_2_8
.p2align 4, 0x90
_test_uint8_t__shift_2_8: ## @test_uint8_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $4, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_9 ## -- Begin function test_uint8_t__shift_2_9
.p2align 4, 0x90
_test_uint8_t__shift_2_9: ## @test_uint8_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_10 ## -- Begin function test_uint8_t__shift_2_10
.p2align 4, 0x90
_test_uint8_t__shift_2_10: ## @test_uint8_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $4, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_2_11 ## -- Begin function test_uint8_t__shift_2_11
.p2align 4, 0x90
_test_uint8_t__shift_2_11: ## @test_uint8_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_0 ## -- Begin function test_uint8_t__shift_3_0
.p2align 4, 0x90
_test_uint8_t__shift_3_0: ## @test_uint8_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_1 ## -- Begin function test_uint8_t__shift_3_1
.p2align 4, 0x90
_test_uint8_t__shift_3_1: ## @test_uint8_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_2 ## -- Begin function test_uint8_t__shift_3_2
.p2align 4, 0x90
_test_uint8_t__shift_3_2: ## @test_uint8_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_3 ## -- Begin function test_uint8_t__shift_3_3
.p2align 4, 0x90
_test_uint8_t__shift_3_3: ## @test_uint8_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $3, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_4 ## -- Begin function test_uint8_t__shift_3_4
.p2align 4, 0x90
_test_uint8_t__shift_3_4: ## @test_uint8_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_5 ## -- Begin function test_uint8_t__shift_3_5
.p2align 4, 0x90
_test_uint8_t__shift_3_5: ## @test_uint8_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $3, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_6 ## -- Begin function test_uint8_t__shift_3_6
.p2align 4, 0x90
_test_uint8_t__shift_3_6: ## @test_uint8_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_7 ## -- Begin function test_uint8_t__shift_3_7
.p2align 4, 0x90
_test_uint8_t__shift_3_7: ## @test_uint8_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_8 ## -- Begin function test_uint8_t__shift_3_8
.p2align 4, 0x90
_test_uint8_t__shift_3_8: ## @test_uint8_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $8, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_9 ## -- Begin function test_uint8_t__shift_3_9
.p2align 4, 0x90
_test_uint8_t__shift_3_9: ## @test_uint8_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_10 ## -- Begin function test_uint8_t__shift_3_10
.p2align 4, 0x90
_test_uint8_t__shift_3_10: ## @test_uint8_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $8, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_3_11 ## -- Begin function test_uint8_t__shift_3_11
.p2align 4, 0x90
_test_uint8_t__shift_3_11: ## @test_uint8_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_0 ## -- Begin function test_uint8_t__shift_4_0
.p2align 4, 0x90
_test_uint8_t__shift_4_0: ## @test_uint8_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_1 ## -- Begin function test_uint8_t__shift_4_1
.p2align 4, 0x90
_test_uint8_t__shift_4_1: ## @test_uint8_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_2 ## -- Begin function test_uint8_t__shift_4_2
.p2align 4, 0x90
_test_uint8_t__shift_4_2: ## @test_uint8_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_3 ## -- Begin function test_uint8_t__shift_4_3
.p2align 4, 0x90
_test_uint8_t__shift_4_3: ## @test_uint8_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $4, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_4 ## -- Begin function test_uint8_t__shift_4_4
.p2align 4, 0x90
_test_uint8_t__shift_4_4: ## @test_uint8_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_5 ## -- Begin function test_uint8_t__shift_4_5
.p2align 4, 0x90
_test_uint8_t__shift_4_5: ## @test_uint8_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $4, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_6 ## -- Begin function test_uint8_t__shift_4_6
.p2align 4, 0x90
_test_uint8_t__shift_4_6: ## @test_uint8_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_7 ## -- Begin function test_uint8_t__shift_4_7
.p2align 4, 0x90
_test_uint8_t__shift_4_7: ## @test_uint8_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_8 ## -- Begin function test_uint8_t__shift_4_8
.p2align 4, 0x90
_test_uint8_t__shift_4_8: ## @test_uint8_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $16, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_9 ## -- Begin function test_uint8_t__shift_4_9
.p2align 4, 0x90
_test_uint8_t__shift_4_9: ## @test_uint8_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_10 ## -- Begin function test_uint8_t__shift_4_10
.p2align 4, 0x90
_test_uint8_t__shift_4_10: ## @test_uint8_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $16, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_4_11 ## -- Begin function test_uint8_t__shift_4_11
.p2align 4, 0x90
_test_uint8_t__shift_4_11: ## @test_uint8_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_0 ## -- Begin function test_uint8_t__shift_5_0
.p2align 4, 0x90
_test_uint8_t__shift_5_0: ## @test_uint8_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_1 ## -- Begin function test_uint8_t__shift_5_1
.p2align 4, 0x90
_test_uint8_t__shift_5_1: ## @test_uint8_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_2 ## -- Begin function test_uint8_t__shift_5_2
.p2align 4, 0x90
_test_uint8_t__shift_5_2: ## @test_uint8_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_3 ## -- Begin function test_uint8_t__shift_5_3
.p2align 4, 0x90
_test_uint8_t__shift_5_3: ## @test_uint8_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $5, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_4 ## -- Begin function test_uint8_t__shift_5_4
.p2align 4, 0x90
_test_uint8_t__shift_5_4: ## @test_uint8_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_5 ## -- Begin function test_uint8_t__shift_5_5
.p2align 4, 0x90
_test_uint8_t__shift_5_5: ## @test_uint8_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $5, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_6 ## -- Begin function test_uint8_t__shift_5_6
.p2align 4, 0x90
_test_uint8_t__shift_5_6: ## @test_uint8_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_7 ## -- Begin function test_uint8_t__shift_5_7
.p2align 4, 0x90
_test_uint8_t__shift_5_7: ## @test_uint8_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_8 ## -- Begin function test_uint8_t__shift_5_8
.p2align 4, 0x90
_test_uint8_t__shift_5_8: ## @test_uint8_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $32, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_9 ## -- Begin function test_uint8_t__shift_5_9
.p2align 4, 0x90
_test_uint8_t__shift_5_9: ## @test_uint8_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_10 ## -- Begin function test_uint8_t__shift_5_10
.p2align 4, 0x90
_test_uint8_t__shift_5_10: ## @test_uint8_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $32, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_5_11 ## -- Begin function test_uint8_t__shift_5_11
.p2align 4, 0x90
_test_uint8_t__shift_5_11: ## @test_uint8_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_0 ## -- Begin function test_uint8_t__shift_6_0
.p2align 4, 0x90
_test_uint8_t__shift_6_0: ## @test_uint8_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_1 ## -- Begin function test_uint8_t__shift_6_1
.p2align 4, 0x90
_test_uint8_t__shift_6_1: ## @test_uint8_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_2 ## -- Begin function test_uint8_t__shift_6_2
.p2align 4, 0x90
_test_uint8_t__shift_6_2: ## @test_uint8_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_3 ## -- Begin function test_uint8_t__shift_6_3
.p2align 4, 0x90
_test_uint8_t__shift_6_3: ## @test_uint8_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $6, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_4 ## -- Begin function test_uint8_t__shift_6_4
.p2align 4, 0x90
_test_uint8_t__shift_6_4: ## @test_uint8_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_5 ## -- Begin function test_uint8_t__shift_6_5
.p2align 4, 0x90
_test_uint8_t__shift_6_5: ## @test_uint8_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $6, %dil
andb $1, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_6 ## -- Begin function test_uint8_t__shift_6_6
.p2align 4, 0x90
_test_uint8_t__shift_6_6: ## @test_uint8_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_7 ## -- Begin function test_uint8_t__shift_6_7
.p2align 4, 0x90
_test_uint8_t__shift_6_7: ## @test_uint8_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_8 ## -- Begin function test_uint8_t__shift_6_8
.p2align 4, 0x90
_test_uint8_t__shift_6_8: ## @test_uint8_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $64, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_9 ## -- Begin function test_uint8_t__shift_6_9
.p2align 4, 0x90
_test_uint8_t__shift_6_9: ## @test_uint8_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_10 ## -- Begin function test_uint8_t__shift_6_10
.p2align 4, 0x90
_test_uint8_t__shift_6_10: ## @test_uint8_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %ecx
xorl %eax, %eax
testb $64, %cl
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_6_11 ## -- Begin function test_uint8_t__shift_6_11
.p2align 4, 0x90
_test_uint8_t__shift_6_11: ## @test_uint8_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_0 ## -- Begin function test_uint8_t__shift_7_0
.p2align 4, 0x90
_test_uint8_t__shift_7_0: ## @test_uint8_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb %dil, %dil
movl $-10, %ecx
movl $-40, %eax
cmovsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_1 ## -- Begin function test_uint8_t__shift_7_1
.p2align 4, 0x90
_test_uint8_t__shift_7_1: ## @test_uint8_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb %dil, %dil
movl $-10, %ecx
movl $-40, %eax
cmovnsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_2 ## -- Begin function test_uint8_t__shift_7_2
.p2align 4, 0x90
_test_uint8_t__shift_7_2: ## @test_uint8_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_3 ## -- Begin function test_uint8_t__shift_7_3
.p2align 4, 0x90
_test_uint8_t__shift_7_3: ## @test_uint8_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_4 ## -- Begin function test_uint8_t__shift_7_4
.p2align 4, 0x90
_test_uint8_t__shift_7_4: ## @test_uint8_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
notb %dil
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_5 ## -- Begin function test_uint8_t__shift_7_5
.p2align 4, 0x90
_test_uint8_t__shift_7_5: ## @test_uint8_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
shrb $7, %dil
movzbl %dil, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_6 ## -- Begin function test_uint8_t__shift_7_6
.p2align 4, 0x90
_test_uint8_t__shift_7_6: ## @test_uint8_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
cmpb $0, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_7 ## -- Begin function test_uint8_t__shift_7_7
.p2align 4, 0x90
_test_uint8_t__shift_7_7: ## @test_uint8_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
cmpb $0, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovnsl %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_8 ## -- Begin function test_uint8_t__shift_7_8
.p2align 4, 0x90
_test_uint8_t__shift_7_8: ## @test_uint8_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movb (%rdi), %al
notb %al
shrb $7, %al
movzbl %al, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_9 ## -- Begin function test_uint8_t__shift_7_9
.p2align 4, 0x90
_test_uint8_t__shift_7_9: ## @test_uint8_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $7, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_10 ## -- Begin function test_uint8_t__shift_7_10
.p2align 4, 0x90
_test_uint8_t__shift_7_10: ## @test_uint8_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movb (%rdi), %al
notb %al
shrb $7, %al
movzbl %al, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint8_t__shift_7_11 ## -- Begin function test_uint8_t__shift_7_11
.p2align 4, 0x90
_test_uint8_t__shift_7_11: ## @test_uint8_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzbl (%rdi), %eax
shrl $7, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_0 ## -- Begin function test_int16_t__shift_0_0
.p2align 4, 0x90
_test_int16_t__shift_0_0: ## @test_int16_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_1 ## -- Begin function test_int16_t__shift_0_1
.p2align 4, 0x90
_test_int16_t__shift_0_1: ## @test_int16_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_2 ## -- Begin function test_int16_t__shift_0_2
.p2align 4, 0x90
_test_int16_t__shift_0_2: ## @test_int16_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_3 ## -- Begin function test_int16_t__shift_0_3
.p2align 4, 0x90
_test_int16_t__shift_0_3: ## @test_int16_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_4 ## -- Begin function test_int16_t__shift_0_4
.p2align 4, 0x90
_test_int16_t__shift_0_4: ## @test_int16_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_5 ## -- Begin function test_int16_t__shift_0_5
.p2align 4, 0x90
_test_int16_t__shift_0_5: ## @test_int16_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_6 ## -- Begin function test_int16_t__shift_0_6
.p2align 4, 0x90
_test_int16_t__shift_0_6: ## @test_int16_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_7 ## -- Begin function test_int16_t__shift_0_7
.p2align 4, 0x90
_test_int16_t__shift_0_7: ## @test_int16_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_8 ## -- Begin function test_int16_t__shift_0_8
.p2align 4, 0x90
_test_int16_t__shift_0_8: ## @test_int16_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_9 ## -- Begin function test_int16_t__shift_0_9
.p2align 4, 0x90
_test_int16_t__shift_0_9: ## @test_int16_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_10 ## -- Begin function test_int16_t__shift_0_10
.p2align 4, 0x90
_test_int16_t__shift_0_10: ## @test_int16_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_0_11 ## -- Begin function test_int16_t__shift_0_11
.p2align 4, 0x90
_test_int16_t__shift_0_11: ## @test_int16_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_0 ## -- Begin function test_int16_t__shift_1_0
.p2align 4, 0x90
_test_int16_t__shift_1_0: ## @test_int16_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_1 ## -- Begin function test_int16_t__shift_1_1
.p2align 4, 0x90
_test_int16_t__shift_1_1: ## @test_int16_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_2 ## -- Begin function test_int16_t__shift_1_2
.p2align 4, 0x90
_test_int16_t__shift_1_2: ## @test_int16_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_3 ## -- Begin function test_int16_t__shift_1_3
.p2align 4, 0x90
_test_int16_t__shift_1_3: ## @test_int16_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_4 ## -- Begin function test_int16_t__shift_1_4
.p2align 4, 0x90
_test_int16_t__shift_1_4: ## @test_int16_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_5 ## -- Begin function test_int16_t__shift_1_5
.p2align 4, 0x90
_test_int16_t__shift_1_5: ## @test_int16_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_6 ## -- Begin function test_int16_t__shift_1_6
.p2align 4, 0x90
_test_int16_t__shift_1_6: ## @test_int16_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_7 ## -- Begin function test_int16_t__shift_1_7
.p2align 4, 0x90
_test_int16_t__shift_1_7: ## @test_int16_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_8 ## -- Begin function test_int16_t__shift_1_8
.p2align 4, 0x90
_test_int16_t__shift_1_8: ## @test_int16_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_9 ## -- Begin function test_int16_t__shift_1_9
.p2align 4, 0x90
_test_int16_t__shift_1_9: ## @test_int16_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_10 ## -- Begin function test_int16_t__shift_1_10
.p2align 4, 0x90
_test_int16_t__shift_1_10: ## @test_int16_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_1_11 ## -- Begin function test_int16_t__shift_1_11
.p2align 4, 0x90
_test_int16_t__shift_1_11: ## @test_int16_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_0 ## -- Begin function test_int16_t__shift_2_0
.p2align 4, 0x90
_test_int16_t__shift_2_0: ## @test_int16_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_1 ## -- Begin function test_int16_t__shift_2_1
.p2align 4, 0x90
_test_int16_t__shift_2_1: ## @test_int16_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_2 ## -- Begin function test_int16_t__shift_2_2
.p2align 4, 0x90
_test_int16_t__shift_2_2: ## @test_int16_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_3 ## -- Begin function test_int16_t__shift_2_3
.p2align 4, 0x90
_test_int16_t__shift_2_3: ## @test_int16_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_4 ## -- Begin function test_int16_t__shift_2_4
.p2align 4, 0x90
_test_int16_t__shift_2_4: ## @test_int16_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_5 ## -- Begin function test_int16_t__shift_2_5
.p2align 4, 0x90
_test_int16_t__shift_2_5: ## @test_int16_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_6 ## -- Begin function test_int16_t__shift_2_6
.p2align 4, 0x90
_test_int16_t__shift_2_6: ## @test_int16_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_7 ## -- Begin function test_int16_t__shift_2_7
.p2align 4, 0x90
_test_int16_t__shift_2_7: ## @test_int16_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_8 ## -- Begin function test_int16_t__shift_2_8
.p2align 4, 0x90
_test_int16_t__shift_2_8: ## @test_int16_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_9 ## -- Begin function test_int16_t__shift_2_9
.p2align 4, 0x90
_test_int16_t__shift_2_9: ## @test_int16_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_10 ## -- Begin function test_int16_t__shift_2_10
.p2align 4, 0x90
_test_int16_t__shift_2_10: ## @test_int16_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_2_11 ## -- Begin function test_int16_t__shift_2_11
.p2align 4, 0x90
_test_int16_t__shift_2_11: ## @test_int16_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_0 ## -- Begin function test_int16_t__shift_3_0
.p2align 4, 0x90
_test_int16_t__shift_3_0: ## @test_int16_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_1 ## -- Begin function test_int16_t__shift_3_1
.p2align 4, 0x90
_test_int16_t__shift_3_1: ## @test_int16_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_2 ## -- Begin function test_int16_t__shift_3_2
.p2align 4, 0x90
_test_int16_t__shift_3_2: ## @test_int16_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_3 ## -- Begin function test_int16_t__shift_3_3
.p2align 4, 0x90
_test_int16_t__shift_3_3: ## @test_int16_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_4 ## -- Begin function test_int16_t__shift_3_4
.p2align 4, 0x90
_test_int16_t__shift_3_4: ## @test_int16_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_5 ## -- Begin function test_int16_t__shift_3_5
.p2align 4, 0x90
_test_int16_t__shift_3_5: ## @test_int16_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_6 ## -- Begin function test_int16_t__shift_3_6
.p2align 4, 0x90
_test_int16_t__shift_3_6: ## @test_int16_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_7 ## -- Begin function test_int16_t__shift_3_7
.p2align 4, 0x90
_test_int16_t__shift_3_7: ## @test_int16_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_8 ## -- Begin function test_int16_t__shift_3_8
.p2align 4, 0x90
_test_int16_t__shift_3_8: ## @test_int16_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_9 ## -- Begin function test_int16_t__shift_3_9
.p2align 4, 0x90
_test_int16_t__shift_3_9: ## @test_int16_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_10 ## -- Begin function test_int16_t__shift_3_10
.p2align 4, 0x90
_test_int16_t__shift_3_10: ## @test_int16_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_3_11 ## -- Begin function test_int16_t__shift_3_11
.p2align 4, 0x90
_test_int16_t__shift_3_11: ## @test_int16_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_0 ## -- Begin function test_int16_t__shift_4_0
.p2align 4, 0x90
_test_int16_t__shift_4_0: ## @test_int16_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_1 ## -- Begin function test_int16_t__shift_4_1
.p2align 4, 0x90
_test_int16_t__shift_4_1: ## @test_int16_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_2 ## -- Begin function test_int16_t__shift_4_2
.p2align 4, 0x90
_test_int16_t__shift_4_2: ## @test_int16_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_3 ## -- Begin function test_int16_t__shift_4_3
.p2align 4, 0x90
_test_int16_t__shift_4_3: ## @test_int16_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_4 ## -- Begin function test_int16_t__shift_4_4
.p2align 4, 0x90
_test_int16_t__shift_4_4: ## @test_int16_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_5 ## -- Begin function test_int16_t__shift_4_5
.p2align 4, 0x90
_test_int16_t__shift_4_5: ## @test_int16_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_6 ## -- Begin function test_int16_t__shift_4_6
.p2align 4, 0x90
_test_int16_t__shift_4_6: ## @test_int16_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_7 ## -- Begin function test_int16_t__shift_4_7
.p2align 4, 0x90
_test_int16_t__shift_4_7: ## @test_int16_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_8 ## -- Begin function test_int16_t__shift_4_8
.p2align 4, 0x90
_test_int16_t__shift_4_8: ## @test_int16_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_9 ## -- Begin function test_int16_t__shift_4_9
.p2align 4, 0x90
_test_int16_t__shift_4_9: ## @test_int16_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_10 ## -- Begin function test_int16_t__shift_4_10
.p2align 4, 0x90
_test_int16_t__shift_4_10: ## @test_int16_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_4_11 ## -- Begin function test_int16_t__shift_4_11
.p2align 4, 0x90
_test_int16_t__shift_4_11: ## @test_int16_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_0 ## -- Begin function test_int16_t__shift_5_0
.p2align 4, 0x90
_test_int16_t__shift_5_0: ## @test_int16_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_1 ## -- Begin function test_int16_t__shift_5_1
.p2align 4, 0x90
_test_int16_t__shift_5_1: ## @test_int16_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_2 ## -- Begin function test_int16_t__shift_5_2
.p2align 4, 0x90
_test_int16_t__shift_5_2: ## @test_int16_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_3 ## -- Begin function test_int16_t__shift_5_3
.p2align 4, 0x90
_test_int16_t__shift_5_3: ## @test_int16_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_4 ## -- Begin function test_int16_t__shift_5_4
.p2align 4, 0x90
_test_int16_t__shift_5_4: ## @test_int16_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_5 ## -- Begin function test_int16_t__shift_5_5
.p2align 4, 0x90
_test_int16_t__shift_5_5: ## @test_int16_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_6 ## -- Begin function test_int16_t__shift_5_6
.p2align 4, 0x90
_test_int16_t__shift_5_6: ## @test_int16_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_7 ## -- Begin function test_int16_t__shift_5_7
.p2align 4, 0x90
_test_int16_t__shift_5_7: ## @test_int16_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_8 ## -- Begin function test_int16_t__shift_5_8
.p2align 4, 0x90
_test_int16_t__shift_5_8: ## @test_int16_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_9 ## -- Begin function test_int16_t__shift_5_9
.p2align 4, 0x90
_test_int16_t__shift_5_9: ## @test_int16_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_10 ## -- Begin function test_int16_t__shift_5_10
.p2align 4, 0x90
_test_int16_t__shift_5_10: ## @test_int16_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_5_11 ## -- Begin function test_int16_t__shift_5_11
.p2align 4, 0x90
_test_int16_t__shift_5_11: ## @test_int16_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_0 ## -- Begin function test_int16_t__shift_6_0
.p2align 4, 0x90
_test_int16_t__shift_6_0: ## @test_int16_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_1 ## -- Begin function test_int16_t__shift_6_1
.p2align 4, 0x90
_test_int16_t__shift_6_1: ## @test_int16_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_2 ## -- Begin function test_int16_t__shift_6_2
.p2align 4, 0x90
_test_int16_t__shift_6_2: ## @test_int16_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_3 ## -- Begin function test_int16_t__shift_6_3
.p2align 4, 0x90
_test_int16_t__shift_6_3: ## @test_int16_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_4 ## -- Begin function test_int16_t__shift_6_4
.p2align 4, 0x90
_test_int16_t__shift_6_4: ## @test_int16_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_5 ## -- Begin function test_int16_t__shift_6_5
.p2align 4, 0x90
_test_int16_t__shift_6_5: ## @test_int16_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_6 ## -- Begin function test_int16_t__shift_6_6
.p2align 4, 0x90
_test_int16_t__shift_6_6: ## @test_int16_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_7 ## -- Begin function test_int16_t__shift_6_7
.p2align 4, 0x90
_test_int16_t__shift_6_7: ## @test_int16_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_8 ## -- Begin function test_int16_t__shift_6_8
.p2align 4, 0x90
_test_int16_t__shift_6_8: ## @test_int16_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_9 ## -- Begin function test_int16_t__shift_6_9
.p2align 4, 0x90
_test_int16_t__shift_6_9: ## @test_int16_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_10 ## -- Begin function test_int16_t__shift_6_10
.p2align 4, 0x90
_test_int16_t__shift_6_10: ## @test_int16_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_6_11 ## -- Begin function test_int16_t__shift_6_11
.p2align 4, 0x90
_test_int16_t__shift_6_11: ## @test_int16_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_0 ## -- Begin function test_int16_t__shift_7_0
.p2align 4, 0x90
_test_int16_t__shift_7_0: ## @test_int16_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_1 ## -- Begin function test_int16_t__shift_7_1
.p2align 4, 0x90
_test_int16_t__shift_7_1: ## @test_int16_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_2 ## -- Begin function test_int16_t__shift_7_2
.p2align 4, 0x90
_test_int16_t__shift_7_2: ## @test_int16_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_3 ## -- Begin function test_int16_t__shift_7_3
.p2align 4, 0x90
_test_int16_t__shift_7_3: ## @test_int16_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_4 ## -- Begin function test_int16_t__shift_7_4
.p2align 4, 0x90
_test_int16_t__shift_7_4: ## @test_int16_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_5 ## -- Begin function test_int16_t__shift_7_5
.p2align 4, 0x90
_test_int16_t__shift_7_5: ## @test_int16_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_6 ## -- Begin function test_int16_t__shift_7_6
.p2align 4, 0x90
_test_int16_t__shift_7_6: ## @test_int16_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_7 ## -- Begin function test_int16_t__shift_7_7
.p2align 4, 0x90
_test_int16_t__shift_7_7: ## @test_int16_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_8 ## -- Begin function test_int16_t__shift_7_8
.p2align 4, 0x90
_test_int16_t__shift_7_8: ## @test_int16_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_9 ## -- Begin function test_int16_t__shift_7_9
.p2align 4, 0x90
_test_int16_t__shift_7_9: ## @test_int16_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_10 ## -- Begin function test_int16_t__shift_7_10
.p2align 4, 0x90
_test_int16_t__shift_7_10: ## @test_int16_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int16_t__shift_7_11 ## -- Begin function test_int16_t__shift_7_11
.p2align 4, 0x90
_test_int16_t__shift_7_11: ## @test_int16_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_0 ## -- Begin function test_uint16_t__shift_0_0
.p2align 4, 0x90
_test_uint16_t__shift_0_0: ## @test_uint16_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_1 ## -- Begin function test_uint16_t__shift_0_1
.p2align 4, 0x90
_test_uint16_t__shift_0_1: ## @test_uint16_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_2 ## -- Begin function test_uint16_t__shift_0_2
.p2align 4, 0x90
_test_uint16_t__shift_0_2: ## @test_uint16_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_3 ## -- Begin function test_uint16_t__shift_0_3
.p2align 4, 0x90
_test_uint16_t__shift_0_3: ## @test_uint16_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_4 ## -- Begin function test_uint16_t__shift_0_4
.p2align 4, 0x90
_test_uint16_t__shift_0_4: ## @test_uint16_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_5 ## -- Begin function test_uint16_t__shift_0_5
.p2align 4, 0x90
_test_uint16_t__shift_0_5: ## @test_uint16_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_6 ## -- Begin function test_uint16_t__shift_0_6
.p2align 4, 0x90
_test_uint16_t__shift_0_6: ## @test_uint16_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_7 ## -- Begin function test_uint16_t__shift_0_7
.p2align 4, 0x90
_test_uint16_t__shift_0_7: ## @test_uint16_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_8 ## -- Begin function test_uint16_t__shift_0_8
.p2align 4, 0x90
_test_uint16_t__shift_0_8: ## @test_uint16_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_9 ## -- Begin function test_uint16_t__shift_0_9
.p2align 4, 0x90
_test_uint16_t__shift_0_9: ## @test_uint16_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_10 ## -- Begin function test_uint16_t__shift_0_10
.p2align 4, 0x90
_test_uint16_t__shift_0_10: ## @test_uint16_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_0_11 ## -- Begin function test_uint16_t__shift_0_11
.p2align 4, 0x90
_test_uint16_t__shift_0_11: ## @test_uint16_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_0 ## -- Begin function test_uint16_t__shift_1_0
.p2align 4, 0x90
_test_uint16_t__shift_1_0: ## @test_uint16_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_1 ## -- Begin function test_uint16_t__shift_1_1
.p2align 4, 0x90
_test_uint16_t__shift_1_1: ## @test_uint16_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_2 ## -- Begin function test_uint16_t__shift_1_2
.p2align 4, 0x90
_test_uint16_t__shift_1_2: ## @test_uint16_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_3 ## -- Begin function test_uint16_t__shift_1_3
.p2align 4, 0x90
_test_uint16_t__shift_1_3: ## @test_uint16_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_4 ## -- Begin function test_uint16_t__shift_1_4
.p2align 4, 0x90
_test_uint16_t__shift_1_4: ## @test_uint16_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_5 ## -- Begin function test_uint16_t__shift_1_5
.p2align 4, 0x90
_test_uint16_t__shift_1_5: ## @test_uint16_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_6 ## -- Begin function test_uint16_t__shift_1_6
.p2align 4, 0x90
_test_uint16_t__shift_1_6: ## @test_uint16_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_7 ## -- Begin function test_uint16_t__shift_1_7
.p2align 4, 0x90
_test_uint16_t__shift_1_7: ## @test_uint16_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_8 ## -- Begin function test_uint16_t__shift_1_8
.p2align 4, 0x90
_test_uint16_t__shift_1_8: ## @test_uint16_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_9 ## -- Begin function test_uint16_t__shift_1_9
.p2align 4, 0x90
_test_uint16_t__shift_1_9: ## @test_uint16_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_10 ## -- Begin function test_uint16_t__shift_1_10
.p2align 4, 0x90
_test_uint16_t__shift_1_10: ## @test_uint16_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_1_11 ## -- Begin function test_uint16_t__shift_1_11
.p2align 4, 0x90
_test_uint16_t__shift_1_11: ## @test_uint16_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_0 ## -- Begin function test_uint16_t__shift_2_0
.p2align 4, 0x90
_test_uint16_t__shift_2_0: ## @test_uint16_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_1 ## -- Begin function test_uint16_t__shift_2_1
.p2align 4, 0x90
_test_uint16_t__shift_2_1: ## @test_uint16_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_2 ## -- Begin function test_uint16_t__shift_2_2
.p2align 4, 0x90
_test_uint16_t__shift_2_2: ## @test_uint16_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_3 ## -- Begin function test_uint16_t__shift_2_3
.p2align 4, 0x90
_test_uint16_t__shift_2_3: ## @test_uint16_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_4 ## -- Begin function test_uint16_t__shift_2_4
.p2align 4, 0x90
_test_uint16_t__shift_2_4: ## @test_uint16_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_5 ## -- Begin function test_uint16_t__shift_2_5
.p2align 4, 0x90
_test_uint16_t__shift_2_5: ## @test_uint16_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_6 ## -- Begin function test_uint16_t__shift_2_6
.p2align 4, 0x90
_test_uint16_t__shift_2_6: ## @test_uint16_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_7 ## -- Begin function test_uint16_t__shift_2_7
.p2align 4, 0x90
_test_uint16_t__shift_2_7: ## @test_uint16_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_8 ## -- Begin function test_uint16_t__shift_2_8
.p2align 4, 0x90
_test_uint16_t__shift_2_8: ## @test_uint16_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_9 ## -- Begin function test_uint16_t__shift_2_9
.p2align 4, 0x90
_test_uint16_t__shift_2_9: ## @test_uint16_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_10 ## -- Begin function test_uint16_t__shift_2_10
.p2align 4, 0x90
_test_uint16_t__shift_2_10: ## @test_uint16_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_2_11 ## -- Begin function test_uint16_t__shift_2_11
.p2align 4, 0x90
_test_uint16_t__shift_2_11: ## @test_uint16_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_0 ## -- Begin function test_uint16_t__shift_3_0
.p2align 4, 0x90
_test_uint16_t__shift_3_0: ## @test_uint16_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_1 ## -- Begin function test_uint16_t__shift_3_1
.p2align 4, 0x90
_test_uint16_t__shift_3_1: ## @test_uint16_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_2 ## -- Begin function test_uint16_t__shift_3_2
.p2align 4, 0x90
_test_uint16_t__shift_3_2: ## @test_uint16_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_3 ## -- Begin function test_uint16_t__shift_3_3
.p2align 4, 0x90
_test_uint16_t__shift_3_3: ## @test_uint16_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_4 ## -- Begin function test_uint16_t__shift_3_4
.p2align 4, 0x90
_test_uint16_t__shift_3_4: ## @test_uint16_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_5 ## -- Begin function test_uint16_t__shift_3_5
.p2align 4, 0x90
_test_uint16_t__shift_3_5: ## @test_uint16_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_6 ## -- Begin function test_uint16_t__shift_3_6
.p2align 4, 0x90
_test_uint16_t__shift_3_6: ## @test_uint16_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_7 ## -- Begin function test_uint16_t__shift_3_7
.p2align 4, 0x90
_test_uint16_t__shift_3_7: ## @test_uint16_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_8 ## -- Begin function test_uint16_t__shift_3_8
.p2align 4, 0x90
_test_uint16_t__shift_3_8: ## @test_uint16_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_9 ## -- Begin function test_uint16_t__shift_3_9
.p2align 4, 0x90
_test_uint16_t__shift_3_9: ## @test_uint16_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_10 ## -- Begin function test_uint16_t__shift_3_10
.p2align 4, 0x90
_test_uint16_t__shift_3_10: ## @test_uint16_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_3_11 ## -- Begin function test_uint16_t__shift_3_11
.p2align 4, 0x90
_test_uint16_t__shift_3_11: ## @test_uint16_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_0 ## -- Begin function test_uint16_t__shift_4_0
.p2align 4, 0x90
_test_uint16_t__shift_4_0: ## @test_uint16_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_1 ## -- Begin function test_uint16_t__shift_4_1
.p2align 4, 0x90
_test_uint16_t__shift_4_1: ## @test_uint16_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_2 ## -- Begin function test_uint16_t__shift_4_2
.p2align 4, 0x90
_test_uint16_t__shift_4_2: ## @test_uint16_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_3 ## -- Begin function test_uint16_t__shift_4_3
.p2align 4, 0x90
_test_uint16_t__shift_4_3: ## @test_uint16_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_4 ## -- Begin function test_uint16_t__shift_4_4
.p2align 4, 0x90
_test_uint16_t__shift_4_4: ## @test_uint16_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_5 ## -- Begin function test_uint16_t__shift_4_5
.p2align 4, 0x90
_test_uint16_t__shift_4_5: ## @test_uint16_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_6 ## -- Begin function test_uint16_t__shift_4_6
.p2align 4, 0x90
_test_uint16_t__shift_4_6: ## @test_uint16_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_7 ## -- Begin function test_uint16_t__shift_4_7
.p2align 4, 0x90
_test_uint16_t__shift_4_7: ## @test_uint16_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_8 ## -- Begin function test_uint16_t__shift_4_8
.p2align 4, 0x90
_test_uint16_t__shift_4_8: ## @test_uint16_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_9 ## -- Begin function test_uint16_t__shift_4_9
.p2align 4, 0x90
_test_uint16_t__shift_4_9: ## @test_uint16_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_10 ## -- Begin function test_uint16_t__shift_4_10
.p2align 4, 0x90
_test_uint16_t__shift_4_10: ## @test_uint16_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_4_11 ## -- Begin function test_uint16_t__shift_4_11
.p2align 4, 0x90
_test_uint16_t__shift_4_11: ## @test_uint16_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_0 ## -- Begin function test_uint16_t__shift_5_0
.p2align 4, 0x90
_test_uint16_t__shift_5_0: ## @test_uint16_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_1 ## -- Begin function test_uint16_t__shift_5_1
.p2align 4, 0x90
_test_uint16_t__shift_5_1: ## @test_uint16_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_2 ## -- Begin function test_uint16_t__shift_5_2
.p2align 4, 0x90
_test_uint16_t__shift_5_2: ## @test_uint16_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_3 ## -- Begin function test_uint16_t__shift_5_3
.p2align 4, 0x90
_test_uint16_t__shift_5_3: ## @test_uint16_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_4 ## -- Begin function test_uint16_t__shift_5_4
.p2align 4, 0x90
_test_uint16_t__shift_5_4: ## @test_uint16_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_5 ## -- Begin function test_uint16_t__shift_5_5
.p2align 4, 0x90
_test_uint16_t__shift_5_5: ## @test_uint16_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_6 ## -- Begin function test_uint16_t__shift_5_6
.p2align 4, 0x90
_test_uint16_t__shift_5_6: ## @test_uint16_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_7 ## -- Begin function test_uint16_t__shift_5_7
.p2align 4, 0x90
_test_uint16_t__shift_5_7: ## @test_uint16_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_8 ## -- Begin function test_uint16_t__shift_5_8
.p2align 4, 0x90
_test_uint16_t__shift_5_8: ## @test_uint16_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_9 ## -- Begin function test_uint16_t__shift_5_9
.p2align 4, 0x90
_test_uint16_t__shift_5_9: ## @test_uint16_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_10 ## -- Begin function test_uint16_t__shift_5_10
.p2align 4, 0x90
_test_uint16_t__shift_5_10: ## @test_uint16_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_5_11 ## -- Begin function test_uint16_t__shift_5_11
.p2align 4, 0x90
_test_uint16_t__shift_5_11: ## @test_uint16_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_0 ## -- Begin function test_uint16_t__shift_6_0
.p2align 4, 0x90
_test_uint16_t__shift_6_0: ## @test_uint16_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_1 ## -- Begin function test_uint16_t__shift_6_1
.p2align 4, 0x90
_test_uint16_t__shift_6_1: ## @test_uint16_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_2 ## -- Begin function test_uint16_t__shift_6_2
.p2align 4, 0x90
_test_uint16_t__shift_6_2: ## @test_uint16_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_3 ## -- Begin function test_uint16_t__shift_6_3
.p2align 4, 0x90
_test_uint16_t__shift_6_3: ## @test_uint16_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_4 ## -- Begin function test_uint16_t__shift_6_4
.p2align 4, 0x90
_test_uint16_t__shift_6_4: ## @test_uint16_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_5 ## -- Begin function test_uint16_t__shift_6_5
.p2align 4, 0x90
_test_uint16_t__shift_6_5: ## @test_uint16_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_6 ## -- Begin function test_uint16_t__shift_6_6
.p2align 4, 0x90
_test_uint16_t__shift_6_6: ## @test_uint16_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_7 ## -- Begin function test_uint16_t__shift_6_7
.p2align 4, 0x90
_test_uint16_t__shift_6_7: ## @test_uint16_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_8 ## -- Begin function test_uint16_t__shift_6_8
.p2align 4, 0x90
_test_uint16_t__shift_6_8: ## @test_uint16_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_9 ## -- Begin function test_uint16_t__shift_6_9
.p2align 4, 0x90
_test_uint16_t__shift_6_9: ## @test_uint16_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_10 ## -- Begin function test_uint16_t__shift_6_10
.p2align 4, 0x90
_test_uint16_t__shift_6_10: ## @test_uint16_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_6_11 ## -- Begin function test_uint16_t__shift_6_11
.p2align 4, 0x90
_test_uint16_t__shift_6_11: ## @test_uint16_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_0 ## -- Begin function test_uint16_t__shift_7_0
.p2align 4, 0x90
_test_uint16_t__shift_7_0: ## @test_uint16_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_1 ## -- Begin function test_uint16_t__shift_7_1
.p2align 4, 0x90
_test_uint16_t__shift_7_1: ## @test_uint16_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_2 ## -- Begin function test_uint16_t__shift_7_2
.p2align 4, 0x90
_test_uint16_t__shift_7_2: ## @test_uint16_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_3 ## -- Begin function test_uint16_t__shift_7_3
.p2align 4, 0x90
_test_uint16_t__shift_7_3: ## @test_uint16_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_4 ## -- Begin function test_uint16_t__shift_7_4
.p2align 4, 0x90
_test_uint16_t__shift_7_4: ## @test_uint16_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_5 ## -- Begin function test_uint16_t__shift_7_5
.p2align 4, 0x90
_test_uint16_t__shift_7_5: ## @test_uint16_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_6 ## -- Begin function test_uint16_t__shift_7_6
.p2align 4, 0x90
_test_uint16_t__shift_7_6: ## @test_uint16_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_7 ## -- Begin function test_uint16_t__shift_7_7
.p2align 4, 0x90
_test_uint16_t__shift_7_7: ## @test_uint16_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_8 ## -- Begin function test_uint16_t__shift_7_8
.p2align 4, 0x90
_test_uint16_t__shift_7_8: ## @test_uint16_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_9 ## -- Begin function test_uint16_t__shift_7_9
.p2align 4, 0x90
_test_uint16_t__shift_7_9: ## @test_uint16_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_10 ## -- Begin function test_uint16_t__shift_7_10
.p2align 4, 0x90
_test_uint16_t__shift_7_10: ## @test_uint16_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint16_t__shift_7_11 ## -- Begin function test_uint16_t__shift_7_11
.p2align 4, 0x90
_test_uint16_t__shift_7_11: ## @test_uint16_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movzwl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_0 ## -- Begin function test_int32_t__shift_0_0
.p2align 4, 0x90
_test_int32_t__shift_0_0: ## @test_int32_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_1 ## -- Begin function test_int32_t__shift_0_1
.p2align 4, 0x90
_test_int32_t__shift_0_1: ## @test_int32_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_2 ## -- Begin function test_int32_t__shift_0_2
.p2align 4, 0x90
_test_int32_t__shift_0_2: ## @test_int32_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_3 ## -- Begin function test_int32_t__shift_0_3
.p2align 4, 0x90
_test_int32_t__shift_0_3: ## @test_int32_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_4 ## -- Begin function test_int32_t__shift_0_4
.p2align 4, 0x90
_test_int32_t__shift_0_4: ## @test_int32_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_5 ## -- Begin function test_int32_t__shift_0_5
.p2align 4, 0x90
_test_int32_t__shift_0_5: ## @test_int32_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_6 ## -- Begin function test_int32_t__shift_0_6
.p2align 4, 0x90
_test_int32_t__shift_0_6: ## @test_int32_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_7 ## -- Begin function test_int32_t__shift_0_7
.p2align 4, 0x90
_test_int32_t__shift_0_7: ## @test_int32_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_8 ## -- Begin function test_int32_t__shift_0_8
.p2align 4, 0x90
_test_int32_t__shift_0_8: ## @test_int32_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_9 ## -- Begin function test_int32_t__shift_0_9
.p2align 4, 0x90
_test_int32_t__shift_0_9: ## @test_int32_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_10 ## -- Begin function test_int32_t__shift_0_10
.p2align 4, 0x90
_test_int32_t__shift_0_10: ## @test_int32_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_0_11 ## -- Begin function test_int32_t__shift_0_11
.p2align 4, 0x90
_test_int32_t__shift_0_11: ## @test_int32_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_0 ## -- Begin function test_int32_t__shift_1_0
.p2align 4, 0x90
_test_int32_t__shift_1_0: ## @test_int32_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_1 ## -- Begin function test_int32_t__shift_1_1
.p2align 4, 0x90
_test_int32_t__shift_1_1: ## @test_int32_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_2 ## -- Begin function test_int32_t__shift_1_2
.p2align 4, 0x90
_test_int32_t__shift_1_2: ## @test_int32_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_3 ## -- Begin function test_int32_t__shift_1_3
.p2align 4, 0x90
_test_int32_t__shift_1_3: ## @test_int32_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_4 ## -- Begin function test_int32_t__shift_1_4
.p2align 4, 0x90
_test_int32_t__shift_1_4: ## @test_int32_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_5 ## -- Begin function test_int32_t__shift_1_5
.p2align 4, 0x90
_test_int32_t__shift_1_5: ## @test_int32_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_6 ## -- Begin function test_int32_t__shift_1_6
.p2align 4, 0x90
_test_int32_t__shift_1_6: ## @test_int32_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_7 ## -- Begin function test_int32_t__shift_1_7
.p2align 4, 0x90
_test_int32_t__shift_1_7: ## @test_int32_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_8 ## -- Begin function test_int32_t__shift_1_8
.p2align 4, 0x90
_test_int32_t__shift_1_8: ## @test_int32_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_9 ## -- Begin function test_int32_t__shift_1_9
.p2align 4, 0x90
_test_int32_t__shift_1_9: ## @test_int32_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_10 ## -- Begin function test_int32_t__shift_1_10
.p2align 4, 0x90
_test_int32_t__shift_1_10: ## @test_int32_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_1_11 ## -- Begin function test_int32_t__shift_1_11
.p2align 4, 0x90
_test_int32_t__shift_1_11: ## @test_int32_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_0 ## -- Begin function test_int32_t__shift_2_0
.p2align 4, 0x90
_test_int32_t__shift_2_0: ## @test_int32_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_1 ## -- Begin function test_int32_t__shift_2_1
.p2align 4, 0x90
_test_int32_t__shift_2_1: ## @test_int32_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_2 ## -- Begin function test_int32_t__shift_2_2
.p2align 4, 0x90
_test_int32_t__shift_2_2: ## @test_int32_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_3 ## -- Begin function test_int32_t__shift_2_3
.p2align 4, 0x90
_test_int32_t__shift_2_3: ## @test_int32_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_4 ## -- Begin function test_int32_t__shift_2_4
.p2align 4, 0x90
_test_int32_t__shift_2_4: ## @test_int32_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_5 ## -- Begin function test_int32_t__shift_2_5
.p2align 4, 0x90
_test_int32_t__shift_2_5: ## @test_int32_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_6 ## -- Begin function test_int32_t__shift_2_6
.p2align 4, 0x90
_test_int32_t__shift_2_6: ## @test_int32_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_7 ## -- Begin function test_int32_t__shift_2_7
.p2align 4, 0x90
_test_int32_t__shift_2_7: ## @test_int32_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_8 ## -- Begin function test_int32_t__shift_2_8
.p2align 4, 0x90
_test_int32_t__shift_2_8: ## @test_int32_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_9 ## -- Begin function test_int32_t__shift_2_9
.p2align 4, 0x90
_test_int32_t__shift_2_9: ## @test_int32_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_10 ## -- Begin function test_int32_t__shift_2_10
.p2align 4, 0x90
_test_int32_t__shift_2_10: ## @test_int32_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_2_11 ## -- Begin function test_int32_t__shift_2_11
.p2align 4, 0x90
_test_int32_t__shift_2_11: ## @test_int32_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_0 ## -- Begin function test_int32_t__shift_3_0
.p2align 4, 0x90
_test_int32_t__shift_3_0: ## @test_int32_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_1 ## -- Begin function test_int32_t__shift_3_1
.p2align 4, 0x90
_test_int32_t__shift_3_1: ## @test_int32_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_2 ## -- Begin function test_int32_t__shift_3_2
.p2align 4, 0x90
_test_int32_t__shift_3_2: ## @test_int32_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_3 ## -- Begin function test_int32_t__shift_3_3
.p2align 4, 0x90
_test_int32_t__shift_3_3: ## @test_int32_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_4 ## -- Begin function test_int32_t__shift_3_4
.p2align 4, 0x90
_test_int32_t__shift_3_4: ## @test_int32_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_5 ## -- Begin function test_int32_t__shift_3_5
.p2align 4, 0x90
_test_int32_t__shift_3_5: ## @test_int32_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_6 ## -- Begin function test_int32_t__shift_3_6
.p2align 4, 0x90
_test_int32_t__shift_3_6: ## @test_int32_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_7 ## -- Begin function test_int32_t__shift_3_7
.p2align 4, 0x90
_test_int32_t__shift_3_7: ## @test_int32_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_8 ## -- Begin function test_int32_t__shift_3_8
.p2align 4, 0x90
_test_int32_t__shift_3_8: ## @test_int32_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_9 ## -- Begin function test_int32_t__shift_3_9
.p2align 4, 0x90
_test_int32_t__shift_3_9: ## @test_int32_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_10 ## -- Begin function test_int32_t__shift_3_10
.p2align 4, 0x90
_test_int32_t__shift_3_10: ## @test_int32_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_3_11 ## -- Begin function test_int32_t__shift_3_11
.p2align 4, 0x90
_test_int32_t__shift_3_11: ## @test_int32_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_0 ## -- Begin function test_int32_t__shift_4_0
.p2align 4, 0x90
_test_int32_t__shift_4_0: ## @test_int32_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_1 ## -- Begin function test_int32_t__shift_4_1
.p2align 4, 0x90
_test_int32_t__shift_4_1: ## @test_int32_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_2 ## -- Begin function test_int32_t__shift_4_2
.p2align 4, 0x90
_test_int32_t__shift_4_2: ## @test_int32_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_3 ## -- Begin function test_int32_t__shift_4_3
.p2align 4, 0x90
_test_int32_t__shift_4_3: ## @test_int32_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_4 ## -- Begin function test_int32_t__shift_4_4
.p2align 4, 0x90
_test_int32_t__shift_4_4: ## @test_int32_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_5 ## -- Begin function test_int32_t__shift_4_5
.p2align 4, 0x90
_test_int32_t__shift_4_5: ## @test_int32_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_6 ## -- Begin function test_int32_t__shift_4_6
.p2align 4, 0x90
_test_int32_t__shift_4_6: ## @test_int32_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_7 ## -- Begin function test_int32_t__shift_4_7
.p2align 4, 0x90
_test_int32_t__shift_4_7: ## @test_int32_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_8 ## -- Begin function test_int32_t__shift_4_8
.p2align 4, 0x90
_test_int32_t__shift_4_8: ## @test_int32_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_9 ## -- Begin function test_int32_t__shift_4_9
.p2align 4, 0x90
_test_int32_t__shift_4_9: ## @test_int32_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_10 ## -- Begin function test_int32_t__shift_4_10
.p2align 4, 0x90
_test_int32_t__shift_4_10: ## @test_int32_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_4_11 ## -- Begin function test_int32_t__shift_4_11
.p2align 4, 0x90
_test_int32_t__shift_4_11: ## @test_int32_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_0 ## -- Begin function test_int32_t__shift_5_0
.p2align 4, 0x90
_test_int32_t__shift_5_0: ## @test_int32_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_1 ## -- Begin function test_int32_t__shift_5_1
.p2align 4, 0x90
_test_int32_t__shift_5_1: ## @test_int32_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_2 ## -- Begin function test_int32_t__shift_5_2
.p2align 4, 0x90
_test_int32_t__shift_5_2: ## @test_int32_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_3 ## -- Begin function test_int32_t__shift_5_3
.p2align 4, 0x90
_test_int32_t__shift_5_3: ## @test_int32_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_4 ## -- Begin function test_int32_t__shift_5_4
.p2align 4, 0x90
_test_int32_t__shift_5_4: ## @test_int32_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_5 ## -- Begin function test_int32_t__shift_5_5
.p2align 4, 0x90
_test_int32_t__shift_5_5: ## @test_int32_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_6 ## -- Begin function test_int32_t__shift_5_6
.p2align 4, 0x90
_test_int32_t__shift_5_6: ## @test_int32_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_7 ## -- Begin function test_int32_t__shift_5_7
.p2align 4, 0x90
_test_int32_t__shift_5_7: ## @test_int32_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_8 ## -- Begin function test_int32_t__shift_5_8
.p2align 4, 0x90
_test_int32_t__shift_5_8: ## @test_int32_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_9 ## -- Begin function test_int32_t__shift_5_9
.p2align 4, 0x90
_test_int32_t__shift_5_9: ## @test_int32_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_10 ## -- Begin function test_int32_t__shift_5_10
.p2align 4, 0x90
_test_int32_t__shift_5_10: ## @test_int32_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_5_11 ## -- Begin function test_int32_t__shift_5_11
.p2align 4, 0x90
_test_int32_t__shift_5_11: ## @test_int32_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_0 ## -- Begin function test_int32_t__shift_6_0
.p2align 4, 0x90
_test_int32_t__shift_6_0: ## @test_int32_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_1 ## -- Begin function test_int32_t__shift_6_1
.p2align 4, 0x90
_test_int32_t__shift_6_1: ## @test_int32_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_2 ## -- Begin function test_int32_t__shift_6_2
.p2align 4, 0x90
_test_int32_t__shift_6_2: ## @test_int32_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_3 ## -- Begin function test_int32_t__shift_6_3
.p2align 4, 0x90
_test_int32_t__shift_6_3: ## @test_int32_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_4 ## -- Begin function test_int32_t__shift_6_4
.p2align 4, 0x90
_test_int32_t__shift_6_4: ## @test_int32_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_5 ## -- Begin function test_int32_t__shift_6_5
.p2align 4, 0x90
_test_int32_t__shift_6_5: ## @test_int32_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_6 ## -- Begin function test_int32_t__shift_6_6
.p2align 4, 0x90
_test_int32_t__shift_6_6: ## @test_int32_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_7 ## -- Begin function test_int32_t__shift_6_7
.p2align 4, 0x90
_test_int32_t__shift_6_7: ## @test_int32_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_8 ## -- Begin function test_int32_t__shift_6_8
.p2align 4, 0x90
_test_int32_t__shift_6_8: ## @test_int32_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_9 ## -- Begin function test_int32_t__shift_6_9
.p2align 4, 0x90
_test_int32_t__shift_6_9: ## @test_int32_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_10 ## -- Begin function test_int32_t__shift_6_10
.p2align 4, 0x90
_test_int32_t__shift_6_10: ## @test_int32_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_6_11 ## -- Begin function test_int32_t__shift_6_11
.p2align 4, 0x90
_test_int32_t__shift_6_11: ## @test_int32_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_0 ## -- Begin function test_int32_t__shift_7_0
.p2align 4, 0x90
_test_int32_t__shift_7_0: ## @test_int32_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_1 ## -- Begin function test_int32_t__shift_7_1
.p2align 4, 0x90
_test_int32_t__shift_7_1: ## @test_int32_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_2 ## -- Begin function test_int32_t__shift_7_2
.p2align 4, 0x90
_test_int32_t__shift_7_2: ## @test_int32_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_3 ## -- Begin function test_int32_t__shift_7_3
.p2align 4, 0x90
_test_int32_t__shift_7_3: ## @test_int32_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_4 ## -- Begin function test_int32_t__shift_7_4
.p2align 4, 0x90
_test_int32_t__shift_7_4: ## @test_int32_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_5 ## -- Begin function test_int32_t__shift_7_5
.p2align 4, 0x90
_test_int32_t__shift_7_5: ## @test_int32_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_6 ## -- Begin function test_int32_t__shift_7_6
.p2align 4, 0x90
_test_int32_t__shift_7_6: ## @test_int32_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_7 ## -- Begin function test_int32_t__shift_7_7
.p2align 4, 0x90
_test_int32_t__shift_7_7: ## @test_int32_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_8 ## -- Begin function test_int32_t__shift_7_8
.p2align 4, 0x90
_test_int32_t__shift_7_8: ## @test_int32_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_9 ## -- Begin function test_int32_t__shift_7_9
.p2align 4, 0x90
_test_int32_t__shift_7_9: ## @test_int32_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_10 ## -- Begin function test_int32_t__shift_7_10
.p2align 4, 0x90
_test_int32_t__shift_7_10: ## @test_int32_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int32_t__shift_7_11 ## -- Begin function test_int32_t__shift_7_11
.p2align 4, 0x90
_test_int32_t__shift_7_11: ## @test_int32_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_0 ## -- Begin function test_uint32_t__shift_0_0
.p2align 4, 0x90
_test_uint32_t__shift_0_0: ## @test_uint32_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_1 ## -- Begin function test_uint32_t__shift_0_1
.p2align 4, 0x90
_test_uint32_t__shift_0_1: ## @test_uint32_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_2 ## -- Begin function test_uint32_t__shift_0_2
.p2align 4, 0x90
_test_uint32_t__shift_0_2: ## @test_uint32_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_3 ## -- Begin function test_uint32_t__shift_0_3
.p2align 4, 0x90
_test_uint32_t__shift_0_3: ## @test_uint32_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_4 ## -- Begin function test_uint32_t__shift_0_4
.p2align 4, 0x90
_test_uint32_t__shift_0_4: ## @test_uint32_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_5 ## -- Begin function test_uint32_t__shift_0_5
.p2align 4, 0x90
_test_uint32_t__shift_0_5: ## @test_uint32_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_6 ## -- Begin function test_uint32_t__shift_0_6
.p2align 4, 0x90
_test_uint32_t__shift_0_6: ## @test_uint32_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_7 ## -- Begin function test_uint32_t__shift_0_7
.p2align 4, 0x90
_test_uint32_t__shift_0_7: ## @test_uint32_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_8 ## -- Begin function test_uint32_t__shift_0_8
.p2align 4, 0x90
_test_uint32_t__shift_0_8: ## @test_uint32_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_9 ## -- Begin function test_uint32_t__shift_0_9
.p2align 4, 0x90
_test_uint32_t__shift_0_9: ## @test_uint32_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_10 ## -- Begin function test_uint32_t__shift_0_10
.p2align 4, 0x90
_test_uint32_t__shift_0_10: ## @test_uint32_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_0_11 ## -- Begin function test_uint32_t__shift_0_11
.p2align 4, 0x90
_test_uint32_t__shift_0_11: ## @test_uint32_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_0 ## -- Begin function test_uint32_t__shift_1_0
.p2align 4, 0x90
_test_uint32_t__shift_1_0: ## @test_uint32_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_1 ## -- Begin function test_uint32_t__shift_1_1
.p2align 4, 0x90
_test_uint32_t__shift_1_1: ## @test_uint32_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_2 ## -- Begin function test_uint32_t__shift_1_2
.p2align 4, 0x90
_test_uint32_t__shift_1_2: ## @test_uint32_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_3 ## -- Begin function test_uint32_t__shift_1_3
.p2align 4, 0x90
_test_uint32_t__shift_1_3: ## @test_uint32_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_4 ## -- Begin function test_uint32_t__shift_1_4
.p2align 4, 0x90
_test_uint32_t__shift_1_4: ## @test_uint32_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_5 ## -- Begin function test_uint32_t__shift_1_5
.p2align 4, 0x90
_test_uint32_t__shift_1_5: ## @test_uint32_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_6 ## -- Begin function test_uint32_t__shift_1_6
.p2align 4, 0x90
_test_uint32_t__shift_1_6: ## @test_uint32_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_7 ## -- Begin function test_uint32_t__shift_1_7
.p2align 4, 0x90
_test_uint32_t__shift_1_7: ## @test_uint32_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_8 ## -- Begin function test_uint32_t__shift_1_8
.p2align 4, 0x90
_test_uint32_t__shift_1_8: ## @test_uint32_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_9 ## -- Begin function test_uint32_t__shift_1_9
.p2align 4, 0x90
_test_uint32_t__shift_1_9: ## @test_uint32_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_10 ## -- Begin function test_uint32_t__shift_1_10
.p2align 4, 0x90
_test_uint32_t__shift_1_10: ## @test_uint32_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_1_11 ## -- Begin function test_uint32_t__shift_1_11
.p2align 4, 0x90
_test_uint32_t__shift_1_11: ## @test_uint32_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_0 ## -- Begin function test_uint32_t__shift_2_0
.p2align 4, 0x90
_test_uint32_t__shift_2_0: ## @test_uint32_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_1 ## -- Begin function test_uint32_t__shift_2_1
.p2align 4, 0x90
_test_uint32_t__shift_2_1: ## @test_uint32_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_2 ## -- Begin function test_uint32_t__shift_2_2
.p2align 4, 0x90
_test_uint32_t__shift_2_2: ## @test_uint32_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_3 ## -- Begin function test_uint32_t__shift_2_3
.p2align 4, 0x90
_test_uint32_t__shift_2_3: ## @test_uint32_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_4 ## -- Begin function test_uint32_t__shift_2_4
.p2align 4, 0x90
_test_uint32_t__shift_2_4: ## @test_uint32_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_5 ## -- Begin function test_uint32_t__shift_2_5
.p2align 4, 0x90
_test_uint32_t__shift_2_5: ## @test_uint32_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_6 ## -- Begin function test_uint32_t__shift_2_6
.p2align 4, 0x90
_test_uint32_t__shift_2_6: ## @test_uint32_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_7 ## -- Begin function test_uint32_t__shift_2_7
.p2align 4, 0x90
_test_uint32_t__shift_2_7: ## @test_uint32_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_8 ## -- Begin function test_uint32_t__shift_2_8
.p2align 4, 0x90
_test_uint32_t__shift_2_8: ## @test_uint32_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_9 ## -- Begin function test_uint32_t__shift_2_9
.p2align 4, 0x90
_test_uint32_t__shift_2_9: ## @test_uint32_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_10 ## -- Begin function test_uint32_t__shift_2_10
.p2align 4, 0x90
_test_uint32_t__shift_2_10: ## @test_uint32_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_2_11 ## -- Begin function test_uint32_t__shift_2_11
.p2align 4, 0x90
_test_uint32_t__shift_2_11: ## @test_uint32_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_0 ## -- Begin function test_uint32_t__shift_3_0
.p2align 4, 0x90
_test_uint32_t__shift_3_0: ## @test_uint32_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_1 ## -- Begin function test_uint32_t__shift_3_1
.p2align 4, 0x90
_test_uint32_t__shift_3_1: ## @test_uint32_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_2 ## -- Begin function test_uint32_t__shift_3_2
.p2align 4, 0x90
_test_uint32_t__shift_3_2: ## @test_uint32_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_3 ## -- Begin function test_uint32_t__shift_3_3
.p2align 4, 0x90
_test_uint32_t__shift_3_3: ## @test_uint32_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_4 ## -- Begin function test_uint32_t__shift_3_4
.p2align 4, 0x90
_test_uint32_t__shift_3_4: ## @test_uint32_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_5 ## -- Begin function test_uint32_t__shift_3_5
.p2align 4, 0x90
_test_uint32_t__shift_3_5: ## @test_uint32_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_6 ## -- Begin function test_uint32_t__shift_3_6
.p2align 4, 0x90
_test_uint32_t__shift_3_6: ## @test_uint32_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_7 ## -- Begin function test_uint32_t__shift_3_7
.p2align 4, 0x90
_test_uint32_t__shift_3_7: ## @test_uint32_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_8 ## -- Begin function test_uint32_t__shift_3_8
.p2align 4, 0x90
_test_uint32_t__shift_3_8: ## @test_uint32_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_9 ## -- Begin function test_uint32_t__shift_3_9
.p2align 4, 0x90
_test_uint32_t__shift_3_9: ## @test_uint32_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_10 ## -- Begin function test_uint32_t__shift_3_10
.p2align 4, 0x90
_test_uint32_t__shift_3_10: ## @test_uint32_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_3_11 ## -- Begin function test_uint32_t__shift_3_11
.p2align 4, 0x90
_test_uint32_t__shift_3_11: ## @test_uint32_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_0 ## -- Begin function test_uint32_t__shift_4_0
.p2align 4, 0x90
_test_uint32_t__shift_4_0: ## @test_uint32_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_1 ## -- Begin function test_uint32_t__shift_4_1
.p2align 4, 0x90
_test_uint32_t__shift_4_1: ## @test_uint32_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_2 ## -- Begin function test_uint32_t__shift_4_2
.p2align 4, 0x90
_test_uint32_t__shift_4_2: ## @test_uint32_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_3 ## -- Begin function test_uint32_t__shift_4_3
.p2align 4, 0x90
_test_uint32_t__shift_4_3: ## @test_uint32_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_4 ## -- Begin function test_uint32_t__shift_4_4
.p2align 4, 0x90
_test_uint32_t__shift_4_4: ## @test_uint32_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_5 ## -- Begin function test_uint32_t__shift_4_5
.p2align 4, 0x90
_test_uint32_t__shift_4_5: ## @test_uint32_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_6 ## -- Begin function test_uint32_t__shift_4_6
.p2align 4, 0x90
_test_uint32_t__shift_4_6: ## @test_uint32_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_7 ## -- Begin function test_uint32_t__shift_4_7
.p2align 4, 0x90
_test_uint32_t__shift_4_7: ## @test_uint32_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_8 ## -- Begin function test_uint32_t__shift_4_8
.p2align 4, 0x90
_test_uint32_t__shift_4_8: ## @test_uint32_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_9 ## -- Begin function test_uint32_t__shift_4_9
.p2align 4, 0x90
_test_uint32_t__shift_4_9: ## @test_uint32_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_10 ## -- Begin function test_uint32_t__shift_4_10
.p2align 4, 0x90
_test_uint32_t__shift_4_10: ## @test_uint32_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_4_11 ## -- Begin function test_uint32_t__shift_4_11
.p2align 4, 0x90
_test_uint32_t__shift_4_11: ## @test_uint32_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_0 ## -- Begin function test_uint32_t__shift_5_0
.p2align 4, 0x90
_test_uint32_t__shift_5_0: ## @test_uint32_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_1 ## -- Begin function test_uint32_t__shift_5_1
.p2align 4, 0x90
_test_uint32_t__shift_5_1: ## @test_uint32_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_2 ## -- Begin function test_uint32_t__shift_5_2
.p2align 4, 0x90
_test_uint32_t__shift_5_2: ## @test_uint32_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_3 ## -- Begin function test_uint32_t__shift_5_3
.p2align 4, 0x90
_test_uint32_t__shift_5_3: ## @test_uint32_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_4 ## -- Begin function test_uint32_t__shift_5_4
.p2align 4, 0x90
_test_uint32_t__shift_5_4: ## @test_uint32_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_5 ## -- Begin function test_uint32_t__shift_5_5
.p2align 4, 0x90
_test_uint32_t__shift_5_5: ## @test_uint32_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_6 ## -- Begin function test_uint32_t__shift_5_6
.p2align 4, 0x90
_test_uint32_t__shift_5_6: ## @test_uint32_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_7 ## -- Begin function test_uint32_t__shift_5_7
.p2align 4, 0x90
_test_uint32_t__shift_5_7: ## @test_uint32_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_8 ## -- Begin function test_uint32_t__shift_5_8
.p2align 4, 0x90
_test_uint32_t__shift_5_8: ## @test_uint32_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_9 ## -- Begin function test_uint32_t__shift_5_9
.p2align 4, 0x90
_test_uint32_t__shift_5_9: ## @test_uint32_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_10 ## -- Begin function test_uint32_t__shift_5_10
.p2align 4, 0x90
_test_uint32_t__shift_5_10: ## @test_uint32_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_5_11 ## -- Begin function test_uint32_t__shift_5_11
.p2align 4, 0x90
_test_uint32_t__shift_5_11: ## @test_uint32_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_0 ## -- Begin function test_uint32_t__shift_6_0
.p2align 4, 0x90
_test_uint32_t__shift_6_0: ## @test_uint32_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_1 ## -- Begin function test_uint32_t__shift_6_1
.p2align 4, 0x90
_test_uint32_t__shift_6_1: ## @test_uint32_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_2 ## -- Begin function test_uint32_t__shift_6_2
.p2align 4, 0x90
_test_uint32_t__shift_6_2: ## @test_uint32_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_3 ## -- Begin function test_uint32_t__shift_6_3
.p2align 4, 0x90
_test_uint32_t__shift_6_3: ## @test_uint32_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_4 ## -- Begin function test_uint32_t__shift_6_4
.p2align 4, 0x90
_test_uint32_t__shift_6_4: ## @test_uint32_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_5 ## -- Begin function test_uint32_t__shift_6_5
.p2align 4, 0x90
_test_uint32_t__shift_6_5: ## @test_uint32_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_6 ## -- Begin function test_uint32_t__shift_6_6
.p2align 4, 0x90
_test_uint32_t__shift_6_6: ## @test_uint32_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_7 ## -- Begin function test_uint32_t__shift_6_7
.p2align 4, 0x90
_test_uint32_t__shift_6_7: ## @test_uint32_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_8 ## -- Begin function test_uint32_t__shift_6_8
.p2align 4, 0x90
_test_uint32_t__shift_6_8: ## @test_uint32_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_9 ## -- Begin function test_uint32_t__shift_6_9
.p2align 4, 0x90
_test_uint32_t__shift_6_9: ## @test_uint32_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_10 ## -- Begin function test_uint32_t__shift_6_10
.p2align 4, 0x90
_test_uint32_t__shift_6_10: ## @test_uint32_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_6_11 ## -- Begin function test_uint32_t__shift_6_11
.p2align 4, 0x90
_test_uint32_t__shift_6_11: ## @test_uint32_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_0 ## -- Begin function test_uint32_t__shift_7_0
.p2align 4, 0x90
_test_uint32_t__shift_7_0: ## @test_uint32_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_1 ## -- Begin function test_uint32_t__shift_7_1
.p2align 4, 0x90
_test_uint32_t__shift_7_1: ## @test_uint32_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_2 ## -- Begin function test_uint32_t__shift_7_2
.p2align 4, 0x90
_test_uint32_t__shift_7_2: ## @test_uint32_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_3 ## -- Begin function test_uint32_t__shift_7_3
.p2align 4, 0x90
_test_uint32_t__shift_7_3: ## @test_uint32_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_4 ## -- Begin function test_uint32_t__shift_7_4
.p2align 4, 0x90
_test_uint32_t__shift_7_4: ## @test_uint32_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_5 ## -- Begin function test_uint32_t__shift_7_5
.p2align 4, 0x90
_test_uint32_t__shift_7_5: ## @test_uint32_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl %edi, %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_6 ## -- Begin function test_uint32_t__shift_7_6
.p2align 4, 0x90
_test_uint32_t__shift_7_6: ## @test_uint32_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_7 ## -- Begin function test_uint32_t__shift_7_7
.p2align 4, 0x90
_test_uint32_t__shift_7_7: ## @test_uint32_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_8 ## -- Begin function test_uint32_t__shift_7_8
.p2align 4, 0x90
_test_uint32_t__shift_7_8: ## @test_uint32_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_9 ## -- Begin function test_uint32_t__shift_7_9
.p2align 4, 0x90
_test_uint32_t__shift_7_9: ## @test_uint32_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_10 ## -- Begin function test_uint32_t__shift_7_10
.p2align 4, 0x90
_test_uint32_t__shift_7_10: ## @test_uint32_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint32_t__shift_7_11 ## -- Begin function test_uint32_t__shift_7_11
.p2align 4, 0x90
_test_uint32_t__shift_7_11: ## @test_uint32_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_0 ## -- Begin function test_int64_t__shift_0_0
.p2align 4, 0x90
_test_int64_t__shift_0_0: ## @test_int64_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_1 ## -- Begin function test_int64_t__shift_0_1
.p2align 4, 0x90
_test_int64_t__shift_0_1: ## @test_int64_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_2 ## -- Begin function test_int64_t__shift_0_2
.p2align 4, 0x90
_test_int64_t__shift_0_2: ## @test_int64_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
notl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_3 ## -- Begin function test_int64_t__shift_0_3
.p2align 4, 0x90
_test_int64_t__shift_0_3: ## @test_int64_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_4 ## -- Begin function test_int64_t__shift_0_4
.p2align 4, 0x90
_test_int64_t__shift_0_4: ## @test_int64_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
notl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_5 ## -- Begin function test_int64_t__shift_0_5
.p2align 4, 0x90
_test_int64_t__shift_0_5: ## @test_int64_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_6 ## -- Begin function test_int64_t__shift_0_6
.p2align 4, 0x90
_test_int64_t__shift_0_6: ## @test_int64_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_7 ## -- Begin function test_int64_t__shift_0_7
.p2align 4, 0x90
_test_int64_t__shift_0_7: ## @test_int64_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_8 ## -- Begin function test_int64_t__shift_0_8
.p2align 4, 0x90
_test_int64_t__shift_0_8: ## @test_int64_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_9 ## -- Begin function test_int64_t__shift_0_9
.p2align 4, 0x90
_test_int64_t__shift_0_9: ## @test_int64_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_10 ## -- Begin function test_int64_t__shift_0_10
.p2align 4, 0x90
_test_int64_t__shift_0_10: ## @test_int64_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_0_11 ## -- Begin function test_int64_t__shift_0_11
.p2align 4, 0x90
_test_int64_t__shift_0_11: ## @test_int64_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_0 ## -- Begin function test_int64_t__shift_1_0
.p2align 4, 0x90
_test_int64_t__shift_1_0: ## @test_int64_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_1 ## -- Begin function test_int64_t__shift_1_1
.p2align 4, 0x90
_test_int64_t__shift_1_1: ## @test_int64_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_2 ## -- Begin function test_int64_t__shift_1_2
.p2align 4, 0x90
_test_int64_t__shift_1_2: ## @test_int64_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_3 ## -- Begin function test_int64_t__shift_1_3
.p2align 4, 0x90
_test_int64_t__shift_1_3: ## @test_int64_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_4 ## -- Begin function test_int64_t__shift_1_4
.p2align 4, 0x90
_test_int64_t__shift_1_4: ## @test_int64_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_5 ## -- Begin function test_int64_t__shift_1_5
.p2align 4, 0x90
_test_int64_t__shift_1_5: ## @test_int64_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_6 ## -- Begin function test_int64_t__shift_1_6
.p2align 4, 0x90
_test_int64_t__shift_1_6: ## @test_int64_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_7 ## -- Begin function test_int64_t__shift_1_7
.p2align 4, 0x90
_test_int64_t__shift_1_7: ## @test_int64_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_8 ## -- Begin function test_int64_t__shift_1_8
.p2align 4, 0x90
_test_int64_t__shift_1_8: ## @test_int64_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_9 ## -- Begin function test_int64_t__shift_1_9
.p2align 4, 0x90
_test_int64_t__shift_1_9: ## @test_int64_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_10 ## -- Begin function test_int64_t__shift_1_10
.p2align 4, 0x90
_test_int64_t__shift_1_10: ## @test_int64_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_1_11 ## -- Begin function test_int64_t__shift_1_11
.p2align 4, 0x90
_test_int64_t__shift_1_11: ## @test_int64_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_0 ## -- Begin function test_int64_t__shift_2_0
.p2align 4, 0x90
_test_int64_t__shift_2_0: ## @test_int64_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_1 ## -- Begin function test_int64_t__shift_2_1
.p2align 4, 0x90
_test_int64_t__shift_2_1: ## @test_int64_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_2 ## -- Begin function test_int64_t__shift_2_2
.p2align 4, 0x90
_test_int64_t__shift_2_2: ## @test_int64_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_3 ## -- Begin function test_int64_t__shift_2_3
.p2align 4, 0x90
_test_int64_t__shift_2_3: ## @test_int64_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $2, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_4 ## -- Begin function test_int64_t__shift_2_4
.p2align 4, 0x90
_test_int64_t__shift_2_4: ## @test_int64_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_5 ## -- Begin function test_int64_t__shift_2_5
.p2align 4, 0x90
_test_int64_t__shift_2_5: ## @test_int64_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $2, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_6 ## -- Begin function test_int64_t__shift_2_6
.p2align 4, 0x90
_test_int64_t__shift_2_6: ## @test_int64_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_7 ## -- Begin function test_int64_t__shift_2_7
.p2align 4, 0x90
_test_int64_t__shift_2_7: ## @test_int64_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_8 ## -- Begin function test_int64_t__shift_2_8
.p2align 4, 0x90
_test_int64_t__shift_2_8: ## @test_int64_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_9 ## -- Begin function test_int64_t__shift_2_9
.p2align 4, 0x90
_test_int64_t__shift_2_9: ## @test_int64_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_10 ## -- Begin function test_int64_t__shift_2_10
.p2align 4, 0x90
_test_int64_t__shift_2_10: ## @test_int64_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_2_11 ## -- Begin function test_int64_t__shift_2_11
.p2align 4, 0x90
_test_int64_t__shift_2_11: ## @test_int64_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_0 ## -- Begin function test_int64_t__shift_3_0
.p2align 4, 0x90
_test_int64_t__shift_3_0: ## @test_int64_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_1 ## -- Begin function test_int64_t__shift_3_1
.p2align 4, 0x90
_test_int64_t__shift_3_1: ## @test_int64_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_2 ## -- Begin function test_int64_t__shift_3_2
.p2align 4, 0x90
_test_int64_t__shift_3_2: ## @test_int64_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_3 ## -- Begin function test_int64_t__shift_3_3
.p2align 4, 0x90
_test_int64_t__shift_3_3: ## @test_int64_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $3, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_4 ## -- Begin function test_int64_t__shift_3_4
.p2align 4, 0x90
_test_int64_t__shift_3_4: ## @test_int64_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_5 ## -- Begin function test_int64_t__shift_3_5
.p2align 4, 0x90
_test_int64_t__shift_3_5: ## @test_int64_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $3, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_6 ## -- Begin function test_int64_t__shift_3_6
.p2align 4, 0x90
_test_int64_t__shift_3_6: ## @test_int64_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_7 ## -- Begin function test_int64_t__shift_3_7
.p2align 4, 0x90
_test_int64_t__shift_3_7: ## @test_int64_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_8 ## -- Begin function test_int64_t__shift_3_8
.p2align 4, 0x90
_test_int64_t__shift_3_8: ## @test_int64_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_9 ## -- Begin function test_int64_t__shift_3_9
.p2align 4, 0x90
_test_int64_t__shift_3_9: ## @test_int64_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_10 ## -- Begin function test_int64_t__shift_3_10
.p2align 4, 0x90
_test_int64_t__shift_3_10: ## @test_int64_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_3_11 ## -- Begin function test_int64_t__shift_3_11
.p2align 4, 0x90
_test_int64_t__shift_3_11: ## @test_int64_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_0 ## -- Begin function test_int64_t__shift_4_0
.p2align 4, 0x90
_test_int64_t__shift_4_0: ## @test_int64_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_1 ## -- Begin function test_int64_t__shift_4_1
.p2align 4, 0x90
_test_int64_t__shift_4_1: ## @test_int64_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_2 ## -- Begin function test_int64_t__shift_4_2
.p2align 4, 0x90
_test_int64_t__shift_4_2: ## @test_int64_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_3 ## -- Begin function test_int64_t__shift_4_3
.p2align 4, 0x90
_test_int64_t__shift_4_3: ## @test_int64_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $4, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_4 ## -- Begin function test_int64_t__shift_4_4
.p2align 4, 0x90
_test_int64_t__shift_4_4: ## @test_int64_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_5 ## -- Begin function test_int64_t__shift_4_5
.p2align 4, 0x90
_test_int64_t__shift_4_5: ## @test_int64_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $4, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_6 ## -- Begin function test_int64_t__shift_4_6
.p2align 4, 0x90
_test_int64_t__shift_4_6: ## @test_int64_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_7 ## -- Begin function test_int64_t__shift_4_7
.p2align 4, 0x90
_test_int64_t__shift_4_7: ## @test_int64_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_8 ## -- Begin function test_int64_t__shift_4_8
.p2align 4, 0x90
_test_int64_t__shift_4_8: ## @test_int64_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_9 ## -- Begin function test_int64_t__shift_4_9
.p2align 4, 0x90
_test_int64_t__shift_4_9: ## @test_int64_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_10 ## -- Begin function test_int64_t__shift_4_10
.p2align 4, 0x90
_test_int64_t__shift_4_10: ## @test_int64_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_4_11 ## -- Begin function test_int64_t__shift_4_11
.p2align 4, 0x90
_test_int64_t__shift_4_11: ## @test_int64_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_0 ## -- Begin function test_int64_t__shift_5_0
.p2align 4, 0x90
_test_int64_t__shift_5_0: ## @test_int64_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_1 ## -- Begin function test_int64_t__shift_5_1
.p2align 4, 0x90
_test_int64_t__shift_5_1: ## @test_int64_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_2 ## -- Begin function test_int64_t__shift_5_2
.p2align 4, 0x90
_test_int64_t__shift_5_2: ## @test_int64_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_3 ## -- Begin function test_int64_t__shift_5_3
.p2align 4, 0x90
_test_int64_t__shift_5_3: ## @test_int64_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $5, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_4 ## -- Begin function test_int64_t__shift_5_4
.p2align 4, 0x90
_test_int64_t__shift_5_4: ## @test_int64_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_5 ## -- Begin function test_int64_t__shift_5_5
.p2align 4, 0x90
_test_int64_t__shift_5_5: ## @test_int64_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $5, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_6 ## -- Begin function test_int64_t__shift_5_6
.p2align 4, 0x90
_test_int64_t__shift_5_6: ## @test_int64_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_7 ## -- Begin function test_int64_t__shift_5_7
.p2align 4, 0x90
_test_int64_t__shift_5_7: ## @test_int64_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_8 ## -- Begin function test_int64_t__shift_5_8
.p2align 4, 0x90
_test_int64_t__shift_5_8: ## @test_int64_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_9 ## -- Begin function test_int64_t__shift_5_9
.p2align 4, 0x90
_test_int64_t__shift_5_9: ## @test_int64_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_10 ## -- Begin function test_int64_t__shift_5_10
.p2align 4, 0x90
_test_int64_t__shift_5_10: ## @test_int64_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_5_11 ## -- Begin function test_int64_t__shift_5_11
.p2align 4, 0x90
_test_int64_t__shift_5_11: ## @test_int64_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_0 ## -- Begin function test_int64_t__shift_6_0
.p2align 4, 0x90
_test_int64_t__shift_6_0: ## @test_int64_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_1 ## -- Begin function test_int64_t__shift_6_1
.p2align 4, 0x90
_test_int64_t__shift_6_1: ## @test_int64_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_2 ## -- Begin function test_int64_t__shift_6_2
.p2align 4, 0x90
_test_int64_t__shift_6_2: ## @test_int64_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_3 ## -- Begin function test_int64_t__shift_6_3
.p2align 4, 0x90
_test_int64_t__shift_6_3: ## @test_int64_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $6, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_4 ## -- Begin function test_int64_t__shift_6_4
.p2align 4, 0x90
_test_int64_t__shift_6_4: ## @test_int64_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_5 ## -- Begin function test_int64_t__shift_6_5
.p2align 4, 0x90
_test_int64_t__shift_6_5: ## @test_int64_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $6, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_6 ## -- Begin function test_int64_t__shift_6_6
.p2align 4, 0x90
_test_int64_t__shift_6_6: ## @test_int64_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_7 ## -- Begin function test_int64_t__shift_6_7
.p2align 4, 0x90
_test_int64_t__shift_6_7: ## @test_int64_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_8 ## -- Begin function test_int64_t__shift_6_8
.p2align 4, 0x90
_test_int64_t__shift_6_8: ## @test_int64_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_9 ## -- Begin function test_int64_t__shift_6_9
.p2align 4, 0x90
_test_int64_t__shift_6_9: ## @test_int64_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_10 ## -- Begin function test_int64_t__shift_6_10
.p2align 4, 0x90
_test_int64_t__shift_6_10: ## @test_int64_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_6_11 ## -- Begin function test_int64_t__shift_6_11
.p2align 4, 0x90
_test_int64_t__shift_6_11: ## @test_int64_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_0 ## -- Begin function test_int64_t__shift_7_0
.p2align 4, 0x90
_test_int64_t__shift_7_0: ## @test_int64_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_1 ## -- Begin function test_int64_t__shift_7_1
.p2align 4, 0x90
_test_int64_t__shift_7_1: ## @test_int64_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_2 ## -- Begin function test_int64_t__shift_7_2
.p2align 4, 0x90
_test_int64_t__shift_7_2: ## @test_int64_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_3 ## -- Begin function test_int64_t__shift_7_3
.p2align 4, 0x90
_test_int64_t__shift_7_3: ## @test_int64_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $7, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_4 ## -- Begin function test_int64_t__shift_7_4
.p2align 4, 0x90
_test_int64_t__shift_7_4: ## @test_int64_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_5 ## -- Begin function test_int64_t__shift_7_5
.p2align 4, 0x90
_test_int64_t__shift_7_5: ## @test_int64_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $7, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_6 ## -- Begin function test_int64_t__shift_7_6
.p2align 4, 0x90
_test_int64_t__shift_7_6: ## @test_int64_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_7 ## -- Begin function test_int64_t__shift_7_7
.p2align 4, 0x90
_test_int64_t__shift_7_7: ## @test_int64_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_8 ## -- Begin function test_int64_t__shift_7_8
.p2align 4, 0x90
_test_int64_t__shift_7_8: ## @test_int64_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_9 ## -- Begin function test_int64_t__shift_7_9
.p2align 4, 0x90
_test_int64_t__shift_7_9: ## @test_int64_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_10 ## -- Begin function test_int64_t__shift_7_10
.p2align 4, 0x90
_test_int64_t__shift_7_10: ## @test_int64_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_int64_t__shift_7_11 ## -- Begin function test_int64_t__shift_7_11
.p2align 4, 0x90
_test_int64_t__shift_7_11: ## @test_int64_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_0 ## -- Begin function test_uint64_t__shift_0_0
.p2align 4, 0x90
_test_uint64_t__shift_0_0: ## @test_uint64_t__shift_0_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_1 ## -- Begin function test_uint64_t__shift_0_1
.p2align 4, 0x90
_test_uint64_t__shift_0_1: ## @test_uint64_t__shift_0_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_2 ## -- Begin function test_uint64_t__shift_0_2
.p2align 4, 0x90
_test_uint64_t__shift_0_2: ## @test_uint64_t__shift_0_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
notl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_3 ## -- Begin function test_uint64_t__shift_0_3
.p2align 4, 0x90
_test_uint64_t__shift_0_3: ## @test_uint64_t__shift_0_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_4 ## -- Begin function test_uint64_t__shift_0_4
.p2align 4, 0x90
_test_uint64_t__shift_0_4: ## @test_uint64_t__shift_0_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
notl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_5 ## -- Begin function test_uint64_t__shift_0_5
.p2align 4, 0x90
_test_uint64_t__shift_0_5: ## @test_uint64_t__shift_0_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_6 ## -- Begin function test_uint64_t__shift_0_6
.p2align 4, 0x90
_test_uint64_t__shift_0_6: ## @test_uint64_t__shift_0_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_7 ## -- Begin function test_uint64_t__shift_0_7
.p2align 4, 0x90
_test_uint64_t__shift_0_7: ## @test_uint64_t__shift_0_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $1, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_8 ## -- Begin function test_uint64_t__shift_0_8
.p2align 4, 0x90
_test_uint64_t__shift_0_8: ## @test_uint64_t__shift_0_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_9 ## -- Begin function test_uint64_t__shift_0_9
.p2align 4, 0x90
_test_uint64_t__shift_0_9: ## @test_uint64_t__shift_0_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_10 ## -- Begin function test_uint64_t__shift_0_10
.p2align 4, 0x90
_test_uint64_t__shift_0_10: ## @test_uint64_t__shift_0_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
notl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_0_11 ## -- Begin function test_uint64_t__shift_0_11
.p2align 4, 0x90
_test_uint64_t__shift_0_11: ## @test_uint64_t__shift_0_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_0 ## -- Begin function test_uint64_t__shift_1_0
.p2align 4, 0x90
_test_uint64_t__shift_1_0: ## @test_uint64_t__shift_1_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_1 ## -- Begin function test_uint64_t__shift_1_1
.p2align 4, 0x90
_test_uint64_t__shift_1_1: ## @test_uint64_t__shift_1_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_2 ## -- Begin function test_uint64_t__shift_1_2
.p2align 4, 0x90
_test_uint64_t__shift_1_2: ## @test_uint64_t__shift_1_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_3 ## -- Begin function test_uint64_t__shift_1_3
.p2align 4, 0x90
_test_uint64_t__shift_1_3: ## @test_uint64_t__shift_1_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_4 ## -- Begin function test_uint64_t__shift_1_4
.p2align 4, 0x90
_test_uint64_t__shift_1_4: ## @test_uint64_t__shift_1_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_5 ## -- Begin function test_uint64_t__shift_1_5
.p2align 4, 0x90
_test_uint64_t__shift_1_5: ## @test_uint64_t__shift_1_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_6 ## -- Begin function test_uint64_t__shift_1_6
.p2align 4, 0x90
_test_uint64_t__shift_1_6: ## @test_uint64_t__shift_1_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_7 ## -- Begin function test_uint64_t__shift_1_7
.p2align 4, 0x90
_test_uint64_t__shift_1_7: ## @test_uint64_t__shift_1_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $2, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_8 ## -- Begin function test_uint64_t__shift_1_8
.p2align 4, 0x90
_test_uint64_t__shift_1_8: ## @test_uint64_t__shift_1_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_9 ## -- Begin function test_uint64_t__shift_1_9
.p2align 4, 0x90
_test_uint64_t__shift_1_9: ## @test_uint64_t__shift_1_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_10 ## -- Begin function test_uint64_t__shift_1_10
.p2align 4, 0x90
_test_uint64_t__shift_1_10: ## @test_uint64_t__shift_1_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $2, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_1_11 ## -- Begin function test_uint64_t__shift_1_11
.p2align 4, 0x90
_test_uint64_t__shift_1_11: ## @test_uint64_t__shift_1_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_0 ## -- Begin function test_uint64_t__shift_2_0
.p2align 4, 0x90
_test_uint64_t__shift_2_0: ## @test_uint64_t__shift_2_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_1 ## -- Begin function test_uint64_t__shift_2_1
.p2align 4, 0x90
_test_uint64_t__shift_2_1: ## @test_uint64_t__shift_2_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_2 ## -- Begin function test_uint64_t__shift_2_2
.p2align 4, 0x90
_test_uint64_t__shift_2_2: ## @test_uint64_t__shift_2_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_3 ## -- Begin function test_uint64_t__shift_2_3
.p2align 4, 0x90
_test_uint64_t__shift_2_3: ## @test_uint64_t__shift_2_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $2, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_4 ## -- Begin function test_uint64_t__shift_2_4
.p2align 4, 0x90
_test_uint64_t__shift_2_4: ## @test_uint64_t__shift_2_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_5 ## -- Begin function test_uint64_t__shift_2_5
.p2align 4, 0x90
_test_uint64_t__shift_2_5: ## @test_uint64_t__shift_2_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $2, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_6 ## -- Begin function test_uint64_t__shift_2_6
.p2align 4, 0x90
_test_uint64_t__shift_2_6: ## @test_uint64_t__shift_2_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_7 ## -- Begin function test_uint64_t__shift_2_7
.p2align 4, 0x90
_test_uint64_t__shift_2_7: ## @test_uint64_t__shift_2_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $4, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_8 ## -- Begin function test_uint64_t__shift_2_8
.p2align 4, 0x90
_test_uint64_t__shift_2_8: ## @test_uint64_t__shift_2_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_9 ## -- Begin function test_uint64_t__shift_2_9
.p2align 4, 0x90
_test_uint64_t__shift_2_9: ## @test_uint64_t__shift_2_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_10 ## -- Begin function test_uint64_t__shift_2_10
.p2align 4, 0x90
_test_uint64_t__shift_2_10: ## @test_uint64_t__shift_2_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $4, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_2_11 ## -- Begin function test_uint64_t__shift_2_11
.p2align 4, 0x90
_test_uint64_t__shift_2_11: ## @test_uint64_t__shift_2_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $2, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_0 ## -- Begin function test_uint64_t__shift_3_0
.p2align 4, 0x90
_test_uint64_t__shift_3_0: ## @test_uint64_t__shift_3_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_1 ## -- Begin function test_uint64_t__shift_3_1
.p2align 4, 0x90
_test_uint64_t__shift_3_1: ## @test_uint64_t__shift_3_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_2 ## -- Begin function test_uint64_t__shift_3_2
.p2align 4, 0x90
_test_uint64_t__shift_3_2: ## @test_uint64_t__shift_3_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_3 ## -- Begin function test_uint64_t__shift_3_3
.p2align 4, 0x90
_test_uint64_t__shift_3_3: ## @test_uint64_t__shift_3_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $3, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_4 ## -- Begin function test_uint64_t__shift_3_4
.p2align 4, 0x90
_test_uint64_t__shift_3_4: ## @test_uint64_t__shift_3_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_5 ## -- Begin function test_uint64_t__shift_3_5
.p2align 4, 0x90
_test_uint64_t__shift_3_5: ## @test_uint64_t__shift_3_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $3, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_6 ## -- Begin function test_uint64_t__shift_3_6
.p2align 4, 0x90
_test_uint64_t__shift_3_6: ## @test_uint64_t__shift_3_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_7 ## -- Begin function test_uint64_t__shift_3_7
.p2align 4, 0x90
_test_uint64_t__shift_3_7: ## @test_uint64_t__shift_3_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $8, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_8 ## -- Begin function test_uint64_t__shift_3_8
.p2align 4, 0x90
_test_uint64_t__shift_3_8: ## @test_uint64_t__shift_3_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_9 ## -- Begin function test_uint64_t__shift_3_9
.p2align 4, 0x90
_test_uint64_t__shift_3_9: ## @test_uint64_t__shift_3_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_10 ## -- Begin function test_uint64_t__shift_3_10
.p2align 4, 0x90
_test_uint64_t__shift_3_10: ## @test_uint64_t__shift_3_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $8, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_3_11 ## -- Begin function test_uint64_t__shift_3_11
.p2align 4, 0x90
_test_uint64_t__shift_3_11: ## @test_uint64_t__shift_3_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $3, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_0 ## -- Begin function test_uint64_t__shift_4_0
.p2align 4, 0x90
_test_uint64_t__shift_4_0: ## @test_uint64_t__shift_4_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_1 ## -- Begin function test_uint64_t__shift_4_1
.p2align 4, 0x90
_test_uint64_t__shift_4_1: ## @test_uint64_t__shift_4_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_2 ## -- Begin function test_uint64_t__shift_4_2
.p2align 4, 0x90
_test_uint64_t__shift_4_2: ## @test_uint64_t__shift_4_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_3 ## -- Begin function test_uint64_t__shift_4_3
.p2align 4, 0x90
_test_uint64_t__shift_4_3: ## @test_uint64_t__shift_4_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $4, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_4 ## -- Begin function test_uint64_t__shift_4_4
.p2align 4, 0x90
_test_uint64_t__shift_4_4: ## @test_uint64_t__shift_4_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_5 ## -- Begin function test_uint64_t__shift_4_5
.p2align 4, 0x90
_test_uint64_t__shift_4_5: ## @test_uint64_t__shift_4_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $4, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_6 ## -- Begin function test_uint64_t__shift_4_6
.p2align 4, 0x90
_test_uint64_t__shift_4_6: ## @test_uint64_t__shift_4_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_7 ## -- Begin function test_uint64_t__shift_4_7
.p2align 4, 0x90
_test_uint64_t__shift_4_7: ## @test_uint64_t__shift_4_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $16, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_8 ## -- Begin function test_uint64_t__shift_4_8
.p2align 4, 0x90
_test_uint64_t__shift_4_8: ## @test_uint64_t__shift_4_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_9 ## -- Begin function test_uint64_t__shift_4_9
.p2align 4, 0x90
_test_uint64_t__shift_4_9: ## @test_uint64_t__shift_4_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_10 ## -- Begin function test_uint64_t__shift_4_10
.p2align 4, 0x90
_test_uint64_t__shift_4_10: ## @test_uint64_t__shift_4_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $16, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_4_11 ## -- Begin function test_uint64_t__shift_4_11
.p2align 4, 0x90
_test_uint64_t__shift_4_11: ## @test_uint64_t__shift_4_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $4, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_0 ## -- Begin function test_uint64_t__shift_5_0
.p2align 4, 0x90
_test_uint64_t__shift_5_0: ## @test_uint64_t__shift_5_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_1 ## -- Begin function test_uint64_t__shift_5_1
.p2align 4, 0x90
_test_uint64_t__shift_5_1: ## @test_uint64_t__shift_5_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_2 ## -- Begin function test_uint64_t__shift_5_2
.p2align 4, 0x90
_test_uint64_t__shift_5_2: ## @test_uint64_t__shift_5_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_3 ## -- Begin function test_uint64_t__shift_5_3
.p2align 4, 0x90
_test_uint64_t__shift_5_3: ## @test_uint64_t__shift_5_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $5, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_4 ## -- Begin function test_uint64_t__shift_5_4
.p2align 4, 0x90
_test_uint64_t__shift_5_4: ## @test_uint64_t__shift_5_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_5 ## -- Begin function test_uint64_t__shift_5_5
.p2align 4, 0x90
_test_uint64_t__shift_5_5: ## @test_uint64_t__shift_5_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $5, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_6 ## -- Begin function test_uint64_t__shift_5_6
.p2align 4, 0x90
_test_uint64_t__shift_5_6: ## @test_uint64_t__shift_5_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_7 ## -- Begin function test_uint64_t__shift_5_7
.p2align 4, 0x90
_test_uint64_t__shift_5_7: ## @test_uint64_t__shift_5_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $32, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_8 ## -- Begin function test_uint64_t__shift_5_8
.p2align 4, 0x90
_test_uint64_t__shift_5_8: ## @test_uint64_t__shift_5_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_9 ## -- Begin function test_uint64_t__shift_5_9
.p2align 4, 0x90
_test_uint64_t__shift_5_9: ## @test_uint64_t__shift_5_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_10 ## -- Begin function test_uint64_t__shift_5_10
.p2align 4, 0x90
_test_uint64_t__shift_5_10: ## @test_uint64_t__shift_5_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $32, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_5_11 ## -- Begin function test_uint64_t__shift_5_11
.p2align 4, 0x90
_test_uint64_t__shift_5_11: ## @test_uint64_t__shift_5_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $5, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_0 ## -- Begin function test_uint64_t__shift_6_0
.p2align 4, 0x90
_test_uint64_t__shift_6_0: ## @test_uint64_t__shift_6_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_1 ## -- Begin function test_uint64_t__shift_6_1
.p2align 4, 0x90
_test_uint64_t__shift_6_1: ## @test_uint64_t__shift_6_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_2 ## -- Begin function test_uint64_t__shift_6_2
.p2align 4, 0x90
_test_uint64_t__shift_6_2: ## @test_uint64_t__shift_6_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_3 ## -- Begin function test_uint64_t__shift_6_3
.p2align 4, 0x90
_test_uint64_t__shift_6_3: ## @test_uint64_t__shift_6_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $6, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_4 ## -- Begin function test_uint64_t__shift_6_4
.p2align 4, 0x90
_test_uint64_t__shift_6_4: ## @test_uint64_t__shift_6_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_5 ## -- Begin function test_uint64_t__shift_6_5
.p2align 4, 0x90
_test_uint64_t__shift_6_5: ## @test_uint64_t__shift_6_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $6, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_6 ## -- Begin function test_uint64_t__shift_6_6
.p2align 4, 0x90
_test_uint64_t__shift_6_6: ## @test_uint64_t__shift_6_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_7 ## -- Begin function test_uint64_t__shift_6_7
.p2align 4, 0x90
_test_uint64_t__shift_6_7: ## @test_uint64_t__shift_6_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $64, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_8 ## -- Begin function test_uint64_t__shift_6_8
.p2align 4, 0x90
_test_uint64_t__shift_6_8: ## @test_uint64_t__shift_6_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_9 ## -- Begin function test_uint64_t__shift_6_9
.p2align 4, 0x90
_test_uint64_t__shift_6_9: ## @test_uint64_t__shift_6_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_10 ## -- Begin function test_uint64_t__shift_6_10
.p2align 4, 0x90
_test_uint64_t__shift_6_10: ## @test_uint64_t__shift_6_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $64, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_6_11 ## -- Begin function test_uint64_t__shift_6_11
.p2align 4, 0x90
_test_uint64_t__shift_6_11: ## @test_uint64_t__shift_6_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $6, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_0 ## -- Begin function test_uint64_t__shift_7_0
.p2align 4, 0x90
_test_uint64_t__shift_7_0: ## @test_uint64_t__shift_7_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_1 ## -- Begin function test_uint64_t__shift_7_1
.p2align 4, 0x90
_test_uint64_t__shift_7_1: ## @test_uint64_t__shift_7_1
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, %dil
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_2 ## -- Begin function test_uint64_t__shift_7_2
.p2align 4, 0x90
_test_uint64_t__shift_7_2: ## @test_uint64_t__shift_7_2
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_3 ## -- Begin function test_uint64_t__shift_7_3
.p2align 4, 0x90
_test_uint64_t__shift_7_3: ## @test_uint64_t__shift_7_3
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $7, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_4 ## -- Begin function test_uint64_t__shift_7_4
.p2align 4, 0x90
_test_uint64_t__shift_7_4: ## @test_uint64_t__shift_7_4
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, %dil
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_5 ## -- Begin function test_uint64_t__shift_7_5
.p2align 4, 0x90
_test_uint64_t__shift_7_5: ## @test_uint64_t__shift_7_5
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq %rdi, %rax
shrl $7, %eax
andl $1, %eax
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_6 ## -- Begin function test_uint64_t__shift_7_6
.p2align 4, 0x90
_test_uint64_t__shift_7_6: ## @test_uint64_t__shift_7_6
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-40, %ecx
movl $-10, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_7 ## -- Begin function test_uint64_t__shift_7_7
.p2align 4, 0x90
_test_uint64_t__shift_7_7: ## @test_uint64_t__shift_7_7
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testb $-128, (%rdi)
movl $-10, %ecx
movl $-40, %eax
cmovel %ecx, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_8 ## -- Begin function test_uint64_t__shift_7_8
.p2align 4, 0x90
_test_uint64_t__shift_7_8: ## @test_uint64_t__shift_7_8
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_9 ## -- Begin function test_uint64_t__shift_7_9
.p2align 4, 0x90
_test_uint64_t__shift_7_9: ## @test_uint64_t__shift_7_9
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_10 ## -- Begin function test_uint64_t__shift_7_10
.p2align 4, 0x90
_test_uint64_t__shift_7_10: ## @test_uint64_t__shift_7_10
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
xorl %eax, %eax
testb $-128, (%rdi)
sete %al
popq %rbp
retq
.cfi_endproc
## -- End function
.globl _test_uint64_t__shift_7_11 ## -- Begin function test_uint64_t__shift_7_11
.p2align 4, 0x90
_test_uint64_t__shift_7_11: ## @test_uint64_t__shift_7_11
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl (%rdi), %eax
shrl $7, %eax
andl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _test_int8_t__shift_0_0 ; -- Begin function test_int8_t__shift_0_0
.p2align 2
_test_int8_t__shift_0_0: ; @test_int8_t__shift_0_0
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_1 ; -- Begin function test_int8_t__shift_0_1
.p2align 2
_test_int8_t__shift_0_1: ; @test_int8_t__shift_0_1
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_2 ; -- Begin function test_int8_t__shift_0_2
.p2align 2
_test_int8_t__shift_0_2: ; @test_int8_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_3 ; -- Begin function test_int8_t__shift_0_3
.p2align 2
_test_int8_t__shift_0_3: ; @test_int8_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_4 ; -- Begin function test_int8_t__shift_0_4
.p2align 2
_test_int8_t__shift_0_4: ; @test_int8_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_5 ; -- Begin function test_int8_t__shift_0_5
.p2align 2
_test_int8_t__shift_0_5: ; @test_int8_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_6 ; -- Begin function test_int8_t__shift_0_6
.p2align 2
_test_int8_t__shift_0_6: ; @test_int8_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_7 ; -- Begin function test_int8_t__shift_0_7
.p2align 2
_test_int8_t__shift_0_7: ; @test_int8_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_8 ; -- Begin function test_int8_t__shift_0_8
.p2align 2
_test_int8_t__shift_0_8: ; @test_int8_t__shift_0_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_9 ; -- Begin function test_int8_t__shift_0_9
.p2align 2
_test_int8_t__shift_0_9: ; @test_int8_t__shift_0_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_10 ; -- Begin function test_int8_t__shift_0_10
.p2align 2
_test_int8_t__shift_0_10: ; @test_int8_t__shift_0_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_0_11 ; -- Begin function test_int8_t__shift_0_11
.p2align 2
_test_int8_t__shift_0_11: ; @test_int8_t__shift_0_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_0 ; -- Begin function test_int8_t__shift_1_0
.p2align 2
_test_int8_t__shift_1_0: ; @test_int8_t__shift_1_0
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_1 ; -- Begin function test_int8_t__shift_1_1
.p2align 2
_test_int8_t__shift_1_1: ; @test_int8_t__shift_1_1
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_2 ; -- Begin function test_int8_t__shift_1_2
.p2align 2
_test_int8_t__shift_1_2: ; @test_int8_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_3 ; -- Begin function test_int8_t__shift_1_3
.p2align 2
_test_int8_t__shift_1_3: ; @test_int8_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_4 ; -- Begin function test_int8_t__shift_1_4
.p2align 2
_test_int8_t__shift_1_4: ; @test_int8_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_5 ; -- Begin function test_int8_t__shift_1_5
.p2align 2
_test_int8_t__shift_1_5: ; @test_int8_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_6 ; -- Begin function test_int8_t__shift_1_6
.p2align 2
_test_int8_t__shift_1_6: ; @test_int8_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_7 ; -- Begin function test_int8_t__shift_1_7
.p2align 2
_test_int8_t__shift_1_7: ; @test_int8_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_8 ; -- Begin function test_int8_t__shift_1_8
.p2align 2
_test_int8_t__shift_1_8: ; @test_int8_t__shift_1_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_9 ; -- Begin function test_int8_t__shift_1_9
.p2align 2
_test_int8_t__shift_1_9: ; @test_int8_t__shift_1_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_10 ; -- Begin function test_int8_t__shift_1_10
.p2align 2
_test_int8_t__shift_1_10: ; @test_int8_t__shift_1_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_1_11 ; -- Begin function test_int8_t__shift_1_11
.p2align 2
_test_int8_t__shift_1_11: ; @test_int8_t__shift_1_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_0 ; -- Begin function test_int8_t__shift_2_0
.p2align 2
_test_int8_t__shift_2_0: ; @test_int8_t__shift_2_0
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_1 ; -- Begin function test_int8_t__shift_2_1
.p2align 2
_test_int8_t__shift_2_1: ; @test_int8_t__shift_2_1
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_2 ; -- Begin function test_int8_t__shift_2_2
.p2align 2
_test_int8_t__shift_2_2: ; @test_int8_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_3 ; -- Begin function test_int8_t__shift_2_3
.p2align 2
_test_int8_t__shift_2_3: ; @test_int8_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_4 ; -- Begin function test_int8_t__shift_2_4
.p2align 2
_test_int8_t__shift_2_4: ; @test_int8_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_5 ; -- Begin function test_int8_t__shift_2_5
.p2align 2
_test_int8_t__shift_2_5: ; @test_int8_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_6 ; -- Begin function test_int8_t__shift_2_6
.p2align 2
_test_int8_t__shift_2_6: ; @test_int8_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_7 ; -- Begin function test_int8_t__shift_2_7
.p2align 2
_test_int8_t__shift_2_7: ; @test_int8_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_8 ; -- Begin function test_int8_t__shift_2_8
.p2align 2
_test_int8_t__shift_2_8: ; @test_int8_t__shift_2_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_9 ; -- Begin function test_int8_t__shift_2_9
.p2align 2
_test_int8_t__shift_2_9: ; @test_int8_t__shift_2_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_10 ; -- Begin function test_int8_t__shift_2_10
.p2align 2
_test_int8_t__shift_2_10: ; @test_int8_t__shift_2_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_2_11 ; -- Begin function test_int8_t__shift_2_11
.p2align 2
_test_int8_t__shift_2_11: ; @test_int8_t__shift_2_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_0 ; -- Begin function test_int8_t__shift_3_0
.p2align 2
_test_int8_t__shift_3_0: ; @test_int8_t__shift_3_0
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_1 ; -- Begin function test_int8_t__shift_3_1
.p2align 2
_test_int8_t__shift_3_1: ; @test_int8_t__shift_3_1
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_2 ; -- Begin function test_int8_t__shift_3_2
.p2align 2
_test_int8_t__shift_3_2: ; @test_int8_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_3 ; -- Begin function test_int8_t__shift_3_3
.p2align 2
_test_int8_t__shift_3_3: ; @test_int8_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_4 ; -- Begin function test_int8_t__shift_3_4
.p2align 2
_test_int8_t__shift_3_4: ; @test_int8_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_5 ; -- Begin function test_int8_t__shift_3_5
.p2align 2
_test_int8_t__shift_3_5: ; @test_int8_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_6 ; -- Begin function test_int8_t__shift_3_6
.p2align 2
_test_int8_t__shift_3_6: ; @test_int8_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_7 ; -- Begin function test_int8_t__shift_3_7
.p2align 2
_test_int8_t__shift_3_7: ; @test_int8_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_8 ; -- Begin function test_int8_t__shift_3_8
.p2align 2
_test_int8_t__shift_3_8: ; @test_int8_t__shift_3_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_9 ; -- Begin function test_int8_t__shift_3_9
.p2align 2
_test_int8_t__shift_3_9: ; @test_int8_t__shift_3_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_10 ; -- Begin function test_int8_t__shift_3_10
.p2align 2
_test_int8_t__shift_3_10: ; @test_int8_t__shift_3_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_3_11 ; -- Begin function test_int8_t__shift_3_11
.p2align 2
_test_int8_t__shift_3_11: ; @test_int8_t__shift_3_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_0 ; -- Begin function test_int8_t__shift_4_0
.p2align 2
_test_int8_t__shift_4_0: ; @test_int8_t__shift_4_0
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_1 ; -- Begin function test_int8_t__shift_4_1
.p2align 2
_test_int8_t__shift_4_1: ; @test_int8_t__shift_4_1
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_2 ; -- Begin function test_int8_t__shift_4_2
.p2align 2
_test_int8_t__shift_4_2: ; @test_int8_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_3 ; -- Begin function test_int8_t__shift_4_3
.p2align 2
_test_int8_t__shift_4_3: ; @test_int8_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_4 ; -- Begin function test_int8_t__shift_4_4
.p2align 2
_test_int8_t__shift_4_4: ; @test_int8_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_5 ; -- Begin function test_int8_t__shift_4_5
.p2align 2
_test_int8_t__shift_4_5: ; @test_int8_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_6 ; -- Begin function test_int8_t__shift_4_6
.p2align 2
_test_int8_t__shift_4_6: ; @test_int8_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_7 ; -- Begin function test_int8_t__shift_4_7
.p2align 2
_test_int8_t__shift_4_7: ; @test_int8_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_8 ; -- Begin function test_int8_t__shift_4_8
.p2align 2
_test_int8_t__shift_4_8: ; @test_int8_t__shift_4_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_9 ; -- Begin function test_int8_t__shift_4_9
.p2align 2
_test_int8_t__shift_4_9: ; @test_int8_t__shift_4_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_10 ; -- Begin function test_int8_t__shift_4_10
.p2align 2
_test_int8_t__shift_4_10: ; @test_int8_t__shift_4_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_4_11 ; -- Begin function test_int8_t__shift_4_11
.p2align 2
_test_int8_t__shift_4_11: ; @test_int8_t__shift_4_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_0 ; -- Begin function test_int8_t__shift_5_0
.p2align 2
_test_int8_t__shift_5_0: ; @test_int8_t__shift_5_0
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_1 ; -- Begin function test_int8_t__shift_5_1
.p2align 2
_test_int8_t__shift_5_1: ; @test_int8_t__shift_5_1
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_2 ; -- Begin function test_int8_t__shift_5_2
.p2align 2
_test_int8_t__shift_5_2: ; @test_int8_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_3 ; -- Begin function test_int8_t__shift_5_3
.p2align 2
_test_int8_t__shift_5_3: ; @test_int8_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_4 ; -- Begin function test_int8_t__shift_5_4
.p2align 2
_test_int8_t__shift_5_4: ; @test_int8_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_5 ; -- Begin function test_int8_t__shift_5_5
.p2align 2
_test_int8_t__shift_5_5: ; @test_int8_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_6 ; -- Begin function test_int8_t__shift_5_6
.p2align 2
_test_int8_t__shift_5_6: ; @test_int8_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_7 ; -- Begin function test_int8_t__shift_5_7
.p2align 2
_test_int8_t__shift_5_7: ; @test_int8_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_8 ; -- Begin function test_int8_t__shift_5_8
.p2align 2
_test_int8_t__shift_5_8: ; @test_int8_t__shift_5_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_9 ; -- Begin function test_int8_t__shift_5_9
.p2align 2
_test_int8_t__shift_5_9: ; @test_int8_t__shift_5_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_10 ; -- Begin function test_int8_t__shift_5_10
.p2align 2
_test_int8_t__shift_5_10: ; @test_int8_t__shift_5_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_5_11 ; -- Begin function test_int8_t__shift_5_11
.p2align 2
_test_int8_t__shift_5_11: ; @test_int8_t__shift_5_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_0 ; -- Begin function test_int8_t__shift_6_0
.p2align 2
_test_int8_t__shift_6_0: ; @test_int8_t__shift_6_0
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_1 ; -- Begin function test_int8_t__shift_6_1
.p2align 2
_test_int8_t__shift_6_1: ; @test_int8_t__shift_6_1
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_2 ; -- Begin function test_int8_t__shift_6_2
.p2align 2
_test_int8_t__shift_6_2: ; @test_int8_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_3 ; -- Begin function test_int8_t__shift_6_3
.p2align 2
_test_int8_t__shift_6_3: ; @test_int8_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_4 ; -- Begin function test_int8_t__shift_6_4
.p2align 2
_test_int8_t__shift_6_4: ; @test_int8_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_5 ; -- Begin function test_int8_t__shift_6_5
.p2align 2
_test_int8_t__shift_6_5: ; @test_int8_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_6 ; -- Begin function test_int8_t__shift_6_6
.p2align 2
_test_int8_t__shift_6_6: ; @test_int8_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_7 ; -- Begin function test_int8_t__shift_6_7
.p2align 2
_test_int8_t__shift_6_7: ; @test_int8_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_8 ; -- Begin function test_int8_t__shift_6_8
.p2align 2
_test_int8_t__shift_6_8: ; @test_int8_t__shift_6_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_9 ; -- Begin function test_int8_t__shift_6_9
.p2align 2
_test_int8_t__shift_6_9: ; @test_int8_t__shift_6_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_10 ; -- Begin function test_int8_t__shift_6_10
.p2align 2
_test_int8_t__shift_6_10: ; @test_int8_t__shift_6_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_6_11 ; -- Begin function test_int8_t__shift_6_11
.p2align 2
_test_int8_t__shift_6_11: ; @test_int8_t__shift_6_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_0 ; -- Begin function test_int8_t__shift_7_0
.p2align 2
_test_int8_t__shift_7_0: ; @test_int8_t__shift_7_0
.cfi_startproc
; %bb.0:
mov w8, #-40
mov w9, #-10
cmp w0, #0
csel w0, w9, w8, lt
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_1 ; -- Begin function test_int8_t__shift_7_1
.p2align 2
_test_int8_t__shift_7_1: ; @test_int8_t__shift_7_1
.cfi_startproc
; %bb.0:
mov w8, #-40
mov w9, #-10
cmp w0, #0
csel w0, w9, w8, ge
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_2 ; -- Begin function test_int8_t__shift_7_2
.p2align 2
_test_int8_t__shift_7_2: ; @test_int8_t__shift_7_2
.cfi_startproc
; %bb.0:
mvn w8, w0
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_3 ; -- Begin function test_int8_t__shift_7_3
.p2align 2
_test_int8_t__shift_7_3: ; @test_int8_t__shift_7_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_4 ; -- Begin function test_int8_t__shift_7_4
.p2align 2
_test_int8_t__shift_7_4: ; @test_int8_t__shift_7_4
.cfi_startproc
; %bb.0:
mvn w8, w0
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_5 ; -- Begin function test_int8_t__shift_7_5
.p2align 2
_test_int8_t__shift_7_5: ; @test_int8_t__shift_7_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_6 ; -- Begin function test_int8_t__shift_7_6
.p2align 2
_test_int8_t__shift_7_6: ; @test_int8_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrsb w8, [x0]
mov w9, #-40
mov w10, #-10
cmp w8, #0
csel w0, w10, w9, lt
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_7 ; -- Begin function test_int8_t__shift_7_7
.p2align 2
_test_int8_t__shift_7_7: ; @test_int8_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrsb w8, [x0]
mov w9, #-40
mov w10, #-10
cmp w8, #0
csel w0, w10, w9, ge
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_8 ; -- Begin function test_int8_t__shift_7_8
.p2align 2
_test_int8_t__shift_7_8: ; @test_int8_t__shift_7_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_9 ; -- Begin function test_int8_t__shift_7_9
.p2align 2
_test_int8_t__shift_7_9: ; @test_int8_t__shift_7_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
lsr w0, w8, #7
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_10 ; -- Begin function test_int8_t__shift_7_10
.p2align 2
_test_int8_t__shift_7_10: ; @test_int8_t__shift_7_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int8_t__shift_7_11 ; -- Begin function test_int8_t__shift_7_11
.p2align 2
_test_int8_t__shift_7_11: ; @test_int8_t__shift_7_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
lsr w0, w8, #7
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_0 ; -- Begin function test_uint8_t__shift_0_0
.p2align 2
_test_uint8_t__shift_0_0: ; @test_uint8_t__shift_0_0
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_1 ; -- Begin function test_uint8_t__shift_0_1
.p2align 2
_test_uint8_t__shift_0_1: ; @test_uint8_t__shift_0_1
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_2 ; -- Begin function test_uint8_t__shift_0_2
.p2align 2
_test_uint8_t__shift_0_2: ; @test_uint8_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_3 ; -- Begin function test_uint8_t__shift_0_3
.p2align 2
_test_uint8_t__shift_0_3: ; @test_uint8_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_4 ; -- Begin function test_uint8_t__shift_0_4
.p2align 2
_test_uint8_t__shift_0_4: ; @test_uint8_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_5 ; -- Begin function test_uint8_t__shift_0_5
.p2align 2
_test_uint8_t__shift_0_5: ; @test_uint8_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_6 ; -- Begin function test_uint8_t__shift_0_6
.p2align 2
_test_uint8_t__shift_0_6: ; @test_uint8_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_7 ; -- Begin function test_uint8_t__shift_0_7
.p2align 2
_test_uint8_t__shift_0_7: ; @test_uint8_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_8 ; -- Begin function test_uint8_t__shift_0_8
.p2align 2
_test_uint8_t__shift_0_8: ; @test_uint8_t__shift_0_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_9 ; -- Begin function test_uint8_t__shift_0_9
.p2align 2
_test_uint8_t__shift_0_9: ; @test_uint8_t__shift_0_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_10 ; -- Begin function test_uint8_t__shift_0_10
.p2align 2
_test_uint8_t__shift_0_10: ; @test_uint8_t__shift_0_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_0_11 ; -- Begin function test_uint8_t__shift_0_11
.p2align 2
_test_uint8_t__shift_0_11: ; @test_uint8_t__shift_0_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_0 ; -- Begin function test_uint8_t__shift_1_0
.p2align 2
_test_uint8_t__shift_1_0: ; @test_uint8_t__shift_1_0
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_1 ; -- Begin function test_uint8_t__shift_1_1
.p2align 2
_test_uint8_t__shift_1_1: ; @test_uint8_t__shift_1_1
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_2 ; -- Begin function test_uint8_t__shift_1_2
.p2align 2
_test_uint8_t__shift_1_2: ; @test_uint8_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_3 ; -- Begin function test_uint8_t__shift_1_3
.p2align 2
_test_uint8_t__shift_1_3: ; @test_uint8_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_4 ; -- Begin function test_uint8_t__shift_1_4
.p2align 2
_test_uint8_t__shift_1_4: ; @test_uint8_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_5 ; -- Begin function test_uint8_t__shift_1_5
.p2align 2
_test_uint8_t__shift_1_5: ; @test_uint8_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_6 ; -- Begin function test_uint8_t__shift_1_6
.p2align 2
_test_uint8_t__shift_1_6: ; @test_uint8_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_7 ; -- Begin function test_uint8_t__shift_1_7
.p2align 2
_test_uint8_t__shift_1_7: ; @test_uint8_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_8 ; -- Begin function test_uint8_t__shift_1_8
.p2align 2
_test_uint8_t__shift_1_8: ; @test_uint8_t__shift_1_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_9 ; -- Begin function test_uint8_t__shift_1_9
.p2align 2
_test_uint8_t__shift_1_9: ; @test_uint8_t__shift_1_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_10 ; -- Begin function test_uint8_t__shift_1_10
.p2align 2
_test_uint8_t__shift_1_10: ; @test_uint8_t__shift_1_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_1_11 ; -- Begin function test_uint8_t__shift_1_11
.p2align 2
_test_uint8_t__shift_1_11: ; @test_uint8_t__shift_1_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_0 ; -- Begin function test_uint8_t__shift_2_0
.p2align 2
_test_uint8_t__shift_2_0: ; @test_uint8_t__shift_2_0
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_1 ; -- Begin function test_uint8_t__shift_2_1
.p2align 2
_test_uint8_t__shift_2_1: ; @test_uint8_t__shift_2_1
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_2 ; -- Begin function test_uint8_t__shift_2_2
.p2align 2
_test_uint8_t__shift_2_2: ; @test_uint8_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_3 ; -- Begin function test_uint8_t__shift_2_3
.p2align 2
_test_uint8_t__shift_2_3: ; @test_uint8_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_4 ; -- Begin function test_uint8_t__shift_2_4
.p2align 2
_test_uint8_t__shift_2_4: ; @test_uint8_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_5 ; -- Begin function test_uint8_t__shift_2_5
.p2align 2
_test_uint8_t__shift_2_5: ; @test_uint8_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_6 ; -- Begin function test_uint8_t__shift_2_6
.p2align 2
_test_uint8_t__shift_2_6: ; @test_uint8_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_7 ; -- Begin function test_uint8_t__shift_2_7
.p2align 2
_test_uint8_t__shift_2_7: ; @test_uint8_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_8 ; -- Begin function test_uint8_t__shift_2_8
.p2align 2
_test_uint8_t__shift_2_8: ; @test_uint8_t__shift_2_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_9 ; -- Begin function test_uint8_t__shift_2_9
.p2align 2
_test_uint8_t__shift_2_9: ; @test_uint8_t__shift_2_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_10 ; -- Begin function test_uint8_t__shift_2_10
.p2align 2
_test_uint8_t__shift_2_10: ; @test_uint8_t__shift_2_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_2_11 ; -- Begin function test_uint8_t__shift_2_11
.p2align 2
_test_uint8_t__shift_2_11: ; @test_uint8_t__shift_2_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_0 ; -- Begin function test_uint8_t__shift_3_0
.p2align 2
_test_uint8_t__shift_3_0: ; @test_uint8_t__shift_3_0
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_1 ; -- Begin function test_uint8_t__shift_3_1
.p2align 2
_test_uint8_t__shift_3_1: ; @test_uint8_t__shift_3_1
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_2 ; -- Begin function test_uint8_t__shift_3_2
.p2align 2
_test_uint8_t__shift_3_2: ; @test_uint8_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_3 ; -- Begin function test_uint8_t__shift_3_3
.p2align 2
_test_uint8_t__shift_3_3: ; @test_uint8_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_4 ; -- Begin function test_uint8_t__shift_3_4
.p2align 2
_test_uint8_t__shift_3_4: ; @test_uint8_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_5 ; -- Begin function test_uint8_t__shift_3_5
.p2align 2
_test_uint8_t__shift_3_5: ; @test_uint8_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_6 ; -- Begin function test_uint8_t__shift_3_6
.p2align 2
_test_uint8_t__shift_3_6: ; @test_uint8_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_7 ; -- Begin function test_uint8_t__shift_3_7
.p2align 2
_test_uint8_t__shift_3_7: ; @test_uint8_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_8 ; -- Begin function test_uint8_t__shift_3_8
.p2align 2
_test_uint8_t__shift_3_8: ; @test_uint8_t__shift_3_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_9 ; -- Begin function test_uint8_t__shift_3_9
.p2align 2
_test_uint8_t__shift_3_9: ; @test_uint8_t__shift_3_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_10 ; -- Begin function test_uint8_t__shift_3_10
.p2align 2
_test_uint8_t__shift_3_10: ; @test_uint8_t__shift_3_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_3_11 ; -- Begin function test_uint8_t__shift_3_11
.p2align 2
_test_uint8_t__shift_3_11: ; @test_uint8_t__shift_3_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_0 ; -- Begin function test_uint8_t__shift_4_0
.p2align 2
_test_uint8_t__shift_4_0: ; @test_uint8_t__shift_4_0
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_1 ; -- Begin function test_uint8_t__shift_4_1
.p2align 2
_test_uint8_t__shift_4_1: ; @test_uint8_t__shift_4_1
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_2 ; -- Begin function test_uint8_t__shift_4_2
.p2align 2
_test_uint8_t__shift_4_2: ; @test_uint8_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_3 ; -- Begin function test_uint8_t__shift_4_3
.p2align 2
_test_uint8_t__shift_4_3: ; @test_uint8_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_4 ; -- Begin function test_uint8_t__shift_4_4
.p2align 2
_test_uint8_t__shift_4_4: ; @test_uint8_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_5 ; -- Begin function test_uint8_t__shift_4_5
.p2align 2
_test_uint8_t__shift_4_5: ; @test_uint8_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_6 ; -- Begin function test_uint8_t__shift_4_6
.p2align 2
_test_uint8_t__shift_4_6: ; @test_uint8_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_7 ; -- Begin function test_uint8_t__shift_4_7
.p2align 2
_test_uint8_t__shift_4_7: ; @test_uint8_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_8 ; -- Begin function test_uint8_t__shift_4_8
.p2align 2
_test_uint8_t__shift_4_8: ; @test_uint8_t__shift_4_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_9 ; -- Begin function test_uint8_t__shift_4_9
.p2align 2
_test_uint8_t__shift_4_9: ; @test_uint8_t__shift_4_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_10 ; -- Begin function test_uint8_t__shift_4_10
.p2align 2
_test_uint8_t__shift_4_10: ; @test_uint8_t__shift_4_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_4_11 ; -- Begin function test_uint8_t__shift_4_11
.p2align 2
_test_uint8_t__shift_4_11: ; @test_uint8_t__shift_4_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_0 ; -- Begin function test_uint8_t__shift_5_0
.p2align 2
_test_uint8_t__shift_5_0: ; @test_uint8_t__shift_5_0
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_1 ; -- Begin function test_uint8_t__shift_5_1
.p2align 2
_test_uint8_t__shift_5_1: ; @test_uint8_t__shift_5_1
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_2 ; -- Begin function test_uint8_t__shift_5_2
.p2align 2
_test_uint8_t__shift_5_2: ; @test_uint8_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_3 ; -- Begin function test_uint8_t__shift_5_3
.p2align 2
_test_uint8_t__shift_5_3: ; @test_uint8_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_4 ; -- Begin function test_uint8_t__shift_5_4
.p2align 2
_test_uint8_t__shift_5_4: ; @test_uint8_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_5 ; -- Begin function test_uint8_t__shift_5_5
.p2align 2
_test_uint8_t__shift_5_5: ; @test_uint8_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_6 ; -- Begin function test_uint8_t__shift_5_6
.p2align 2
_test_uint8_t__shift_5_6: ; @test_uint8_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_7 ; -- Begin function test_uint8_t__shift_5_7
.p2align 2
_test_uint8_t__shift_5_7: ; @test_uint8_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_8 ; -- Begin function test_uint8_t__shift_5_8
.p2align 2
_test_uint8_t__shift_5_8: ; @test_uint8_t__shift_5_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_9 ; -- Begin function test_uint8_t__shift_5_9
.p2align 2
_test_uint8_t__shift_5_9: ; @test_uint8_t__shift_5_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_10 ; -- Begin function test_uint8_t__shift_5_10
.p2align 2
_test_uint8_t__shift_5_10: ; @test_uint8_t__shift_5_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_5_11 ; -- Begin function test_uint8_t__shift_5_11
.p2align 2
_test_uint8_t__shift_5_11: ; @test_uint8_t__shift_5_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_0 ; -- Begin function test_uint8_t__shift_6_0
.p2align 2
_test_uint8_t__shift_6_0: ; @test_uint8_t__shift_6_0
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_1 ; -- Begin function test_uint8_t__shift_6_1
.p2align 2
_test_uint8_t__shift_6_1: ; @test_uint8_t__shift_6_1
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_2 ; -- Begin function test_uint8_t__shift_6_2
.p2align 2
_test_uint8_t__shift_6_2: ; @test_uint8_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_3 ; -- Begin function test_uint8_t__shift_6_3
.p2align 2
_test_uint8_t__shift_6_3: ; @test_uint8_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_4 ; -- Begin function test_uint8_t__shift_6_4
.p2align 2
_test_uint8_t__shift_6_4: ; @test_uint8_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_5 ; -- Begin function test_uint8_t__shift_6_5
.p2align 2
_test_uint8_t__shift_6_5: ; @test_uint8_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_6 ; -- Begin function test_uint8_t__shift_6_6
.p2align 2
_test_uint8_t__shift_6_6: ; @test_uint8_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_7 ; -- Begin function test_uint8_t__shift_6_7
.p2align 2
_test_uint8_t__shift_6_7: ; @test_uint8_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_8 ; -- Begin function test_uint8_t__shift_6_8
.p2align 2
_test_uint8_t__shift_6_8: ; @test_uint8_t__shift_6_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_9 ; -- Begin function test_uint8_t__shift_6_9
.p2align 2
_test_uint8_t__shift_6_9: ; @test_uint8_t__shift_6_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_10 ; -- Begin function test_uint8_t__shift_6_10
.p2align 2
_test_uint8_t__shift_6_10: ; @test_uint8_t__shift_6_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_6_11 ; -- Begin function test_uint8_t__shift_6_11
.p2align 2
_test_uint8_t__shift_6_11: ; @test_uint8_t__shift_6_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_0 ; -- Begin function test_uint8_t__shift_7_0
.p2align 2
_test_uint8_t__shift_7_0: ; @test_uint8_t__shift_7_0
.cfi_startproc
; %bb.0:
sxtb w8, w0
mov w9, #-40
mov w10, #-10
cmp w8, #0
csel w0, w10, w9, lt
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_1 ; -- Begin function test_uint8_t__shift_7_1
.p2align 2
_test_uint8_t__shift_7_1: ; @test_uint8_t__shift_7_1
.cfi_startproc
; %bb.0:
sxtb w8, w0
mov w9, #-40
mov w10, #-10
cmp w8, #0
csel w0, w10, w9, ge
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_2 ; -- Begin function test_uint8_t__shift_7_2
.p2align 2
_test_uint8_t__shift_7_2: ; @test_uint8_t__shift_7_2
.cfi_startproc
; %bb.0:
mvn w8, w0
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_3 ; -- Begin function test_uint8_t__shift_7_3
.p2align 2
_test_uint8_t__shift_7_3: ; @test_uint8_t__shift_7_3
.cfi_startproc
; %bb.0:
lsr w0, w0, #7
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_4 ; -- Begin function test_uint8_t__shift_7_4
.p2align 2
_test_uint8_t__shift_7_4: ; @test_uint8_t__shift_7_4
.cfi_startproc
; %bb.0:
mvn w8, w0
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_5 ; -- Begin function test_uint8_t__shift_7_5
.p2align 2
_test_uint8_t__shift_7_5: ; @test_uint8_t__shift_7_5
.cfi_startproc
; %bb.0:
lsr w0, w0, #7
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_6 ; -- Begin function test_uint8_t__shift_7_6
.p2align 2
_test_uint8_t__shift_7_6: ; @test_uint8_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrsb w8, [x0]
mov w9, #-40
mov w10, #-10
cmp w8, #0
csel w0, w10, w9, lt
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_7 ; -- Begin function test_uint8_t__shift_7_7
.p2align 2
_test_uint8_t__shift_7_7: ; @test_uint8_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrsb w8, [x0]
mov w9, #-40
mov w10, #-10
cmp w8, #0
csel w0, w10, w9, ge
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_8 ; -- Begin function test_uint8_t__shift_7_8
.p2align 2
_test_uint8_t__shift_7_8: ; @test_uint8_t__shift_7_8
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_9 ; -- Begin function test_uint8_t__shift_7_9
.p2align 2
_test_uint8_t__shift_7_9: ; @test_uint8_t__shift_7_9
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
lsr w0, w8, #7
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_10 ; -- Begin function test_uint8_t__shift_7_10
.p2align 2
_test_uint8_t__shift_7_10: ; @test_uint8_t__shift_7_10
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
mvn w8, w8
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint8_t__shift_7_11 ; -- Begin function test_uint8_t__shift_7_11
.p2align 2
_test_uint8_t__shift_7_11: ; @test_uint8_t__shift_7_11
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
lsr w0, w8, #7
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_0 ; -- Begin function test_int16_t__shift_0_0
.p2align 2
_test_int16_t__shift_0_0: ; @test_int16_t__shift_0_0
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_1 ; -- Begin function test_int16_t__shift_0_1
.p2align 2
_test_int16_t__shift_0_1: ; @test_int16_t__shift_0_1
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_2 ; -- Begin function test_int16_t__shift_0_2
.p2align 2
_test_int16_t__shift_0_2: ; @test_int16_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_3 ; -- Begin function test_int16_t__shift_0_3
.p2align 2
_test_int16_t__shift_0_3: ; @test_int16_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_4 ; -- Begin function test_int16_t__shift_0_4
.p2align 2
_test_int16_t__shift_0_4: ; @test_int16_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_5 ; -- Begin function test_int16_t__shift_0_5
.p2align 2
_test_int16_t__shift_0_5: ; @test_int16_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_6 ; -- Begin function test_int16_t__shift_0_6
.p2align 2
_test_int16_t__shift_0_6: ; @test_int16_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_7 ; -- Begin function test_int16_t__shift_0_7
.p2align 2
_test_int16_t__shift_0_7: ; @test_int16_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_8 ; -- Begin function test_int16_t__shift_0_8
.p2align 2
_test_int16_t__shift_0_8: ; @test_int16_t__shift_0_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_9 ; -- Begin function test_int16_t__shift_0_9
.p2align 2
_test_int16_t__shift_0_9: ; @test_int16_t__shift_0_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_10 ; -- Begin function test_int16_t__shift_0_10
.p2align 2
_test_int16_t__shift_0_10: ; @test_int16_t__shift_0_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_0_11 ; -- Begin function test_int16_t__shift_0_11
.p2align 2
_test_int16_t__shift_0_11: ; @test_int16_t__shift_0_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_0 ; -- Begin function test_int16_t__shift_1_0
.p2align 2
_test_int16_t__shift_1_0: ; @test_int16_t__shift_1_0
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_1 ; -- Begin function test_int16_t__shift_1_1
.p2align 2
_test_int16_t__shift_1_1: ; @test_int16_t__shift_1_1
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_2 ; -- Begin function test_int16_t__shift_1_2
.p2align 2
_test_int16_t__shift_1_2: ; @test_int16_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_3 ; -- Begin function test_int16_t__shift_1_3
.p2align 2
_test_int16_t__shift_1_3: ; @test_int16_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_4 ; -- Begin function test_int16_t__shift_1_4
.p2align 2
_test_int16_t__shift_1_4: ; @test_int16_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_5 ; -- Begin function test_int16_t__shift_1_5
.p2align 2
_test_int16_t__shift_1_5: ; @test_int16_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_6 ; -- Begin function test_int16_t__shift_1_6
.p2align 2
_test_int16_t__shift_1_6: ; @test_int16_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_7 ; -- Begin function test_int16_t__shift_1_7
.p2align 2
_test_int16_t__shift_1_7: ; @test_int16_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_8 ; -- Begin function test_int16_t__shift_1_8
.p2align 2
_test_int16_t__shift_1_8: ; @test_int16_t__shift_1_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_9 ; -- Begin function test_int16_t__shift_1_9
.p2align 2
_test_int16_t__shift_1_9: ; @test_int16_t__shift_1_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_10 ; -- Begin function test_int16_t__shift_1_10
.p2align 2
_test_int16_t__shift_1_10: ; @test_int16_t__shift_1_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_1_11 ; -- Begin function test_int16_t__shift_1_11
.p2align 2
_test_int16_t__shift_1_11: ; @test_int16_t__shift_1_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_0 ; -- Begin function test_int16_t__shift_2_0
.p2align 2
_test_int16_t__shift_2_0: ; @test_int16_t__shift_2_0
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_1 ; -- Begin function test_int16_t__shift_2_1
.p2align 2
_test_int16_t__shift_2_1: ; @test_int16_t__shift_2_1
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_2 ; -- Begin function test_int16_t__shift_2_2
.p2align 2
_test_int16_t__shift_2_2: ; @test_int16_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_3 ; -- Begin function test_int16_t__shift_2_3
.p2align 2
_test_int16_t__shift_2_3: ; @test_int16_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_4 ; -- Begin function test_int16_t__shift_2_4
.p2align 2
_test_int16_t__shift_2_4: ; @test_int16_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_5 ; -- Begin function test_int16_t__shift_2_5
.p2align 2
_test_int16_t__shift_2_5: ; @test_int16_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_6 ; -- Begin function test_int16_t__shift_2_6
.p2align 2
_test_int16_t__shift_2_6: ; @test_int16_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_7 ; -- Begin function test_int16_t__shift_2_7
.p2align 2
_test_int16_t__shift_2_7: ; @test_int16_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_8 ; -- Begin function test_int16_t__shift_2_8
.p2align 2
_test_int16_t__shift_2_8: ; @test_int16_t__shift_2_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_9 ; -- Begin function test_int16_t__shift_2_9
.p2align 2
_test_int16_t__shift_2_9: ; @test_int16_t__shift_2_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_10 ; -- Begin function test_int16_t__shift_2_10
.p2align 2
_test_int16_t__shift_2_10: ; @test_int16_t__shift_2_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_2_11 ; -- Begin function test_int16_t__shift_2_11
.p2align 2
_test_int16_t__shift_2_11: ; @test_int16_t__shift_2_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_0 ; -- Begin function test_int16_t__shift_3_0
.p2align 2
_test_int16_t__shift_3_0: ; @test_int16_t__shift_3_0
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_1 ; -- Begin function test_int16_t__shift_3_1
.p2align 2
_test_int16_t__shift_3_1: ; @test_int16_t__shift_3_1
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_2 ; -- Begin function test_int16_t__shift_3_2
.p2align 2
_test_int16_t__shift_3_2: ; @test_int16_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_3 ; -- Begin function test_int16_t__shift_3_3
.p2align 2
_test_int16_t__shift_3_3: ; @test_int16_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_4 ; -- Begin function test_int16_t__shift_3_4
.p2align 2
_test_int16_t__shift_3_4: ; @test_int16_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_5 ; -- Begin function test_int16_t__shift_3_5
.p2align 2
_test_int16_t__shift_3_5: ; @test_int16_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_6 ; -- Begin function test_int16_t__shift_3_6
.p2align 2
_test_int16_t__shift_3_6: ; @test_int16_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_7 ; -- Begin function test_int16_t__shift_3_7
.p2align 2
_test_int16_t__shift_3_7: ; @test_int16_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_8 ; -- Begin function test_int16_t__shift_3_8
.p2align 2
_test_int16_t__shift_3_8: ; @test_int16_t__shift_3_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_9 ; -- Begin function test_int16_t__shift_3_9
.p2align 2
_test_int16_t__shift_3_9: ; @test_int16_t__shift_3_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_10 ; -- Begin function test_int16_t__shift_3_10
.p2align 2
_test_int16_t__shift_3_10: ; @test_int16_t__shift_3_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_3_11 ; -- Begin function test_int16_t__shift_3_11
.p2align 2
_test_int16_t__shift_3_11: ; @test_int16_t__shift_3_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_0 ; -- Begin function test_int16_t__shift_4_0
.p2align 2
_test_int16_t__shift_4_0: ; @test_int16_t__shift_4_0
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_1 ; -- Begin function test_int16_t__shift_4_1
.p2align 2
_test_int16_t__shift_4_1: ; @test_int16_t__shift_4_1
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_2 ; -- Begin function test_int16_t__shift_4_2
.p2align 2
_test_int16_t__shift_4_2: ; @test_int16_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_3 ; -- Begin function test_int16_t__shift_4_3
.p2align 2
_test_int16_t__shift_4_3: ; @test_int16_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_4 ; -- Begin function test_int16_t__shift_4_4
.p2align 2
_test_int16_t__shift_4_4: ; @test_int16_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_5 ; -- Begin function test_int16_t__shift_4_5
.p2align 2
_test_int16_t__shift_4_5: ; @test_int16_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_6 ; -- Begin function test_int16_t__shift_4_6
.p2align 2
_test_int16_t__shift_4_6: ; @test_int16_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_7 ; -- Begin function test_int16_t__shift_4_7
.p2align 2
_test_int16_t__shift_4_7: ; @test_int16_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_8 ; -- Begin function test_int16_t__shift_4_8
.p2align 2
_test_int16_t__shift_4_8: ; @test_int16_t__shift_4_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_9 ; -- Begin function test_int16_t__shift_4_9
.p2align 2
_test_int16_t__shift_4_9: ; @test_int16_t__shift_4_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_10 ; -- Begin function test_int16_t__shift_4_10
.p2align 2
_test_int16_t__shift_4_10: ; @test_int16_t__shift_4_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_4_11 ; -- Begin function test_int16_t__shift_4_11
.p2align 2
_test_int16_t__shift_4_11: ; @test_int16_t__shift_4_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_0 ; -- Begin function test_int16_t__shift_5_0
.p2align 2
_test_int16_t__shift_5_0: ; @test_int16_t__shift_5_0
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_1 ; -- Begin function test_int16_t__shift_5_1
.p2align 2
_test_int16_t__shift_5_1: ; @test_int16_t__shift_5_1
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_2 ; -- Begin function test_int16_t__shift_5_2
.p2align 2
_test_int16_t__shift_5_2: ; @test_int16_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_3 ; -- Begin function test_int16_t__shift_5_3
.p2align 2
_test_int16_t__shift_5_3: ; @test_int16_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_4 ; -- Begin function test_int16_t__shift_5_4
.p2align 2
_test_int16_t__shift_5_4: ; @test_int16_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_5 ; -- Begin function test_int16_t__shift_5_5
.p2align 2
_test_int16_t__shift_5_5: ; @test_int16_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_6 ; -- Begin function test_int16_t__shift_5_6
.p2align 2
_test_int16_t__shift_5_6: ; @test_int16_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_7 ; -- Begin function test_int16_t__shift_5_7
.p2align 2
_test_int16_t__shift_5_7: ; @test_int16_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_8 ; -- Begin function test_int16_t__shift_5_8
.p2align 2
_test_int16_t__shift_5_8: ; @test_int16_t__shift_5_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_9 ; -- Begin function test_int16_t__shift_5_9
.p2align 2
_test_int16_t__shift_5_9: ; @test_int16_t__shift_5_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_10 ; -- Begin function test_int16_t__shift_5_10
.p2align 2
_test_int16_t__shift_5_10: ; @test_int16_t__shift_5_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_5_11 ; -- Begin function test_int16_t__shift_5_11
.p2align 2
_test_int16_t__shift_5_11: ; @test_int16_t__shift_5_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_0 ; -- Begin function test_int16_t__shift_6_0
.p2align 2
_test_int16_t__shift_6_0: ; @test_int16_t__shift_6_0
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_1 ; -- Begin function test_int16_t__shift_6_1
.p2align 2
_test_int16_t__shift_6_1: ; @test_int16_t__shift_6_1
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_2 ; -- Begin function test_int16_t__shift_6_2
.p2align 2
_test_int16_t__shift_6_2: ; @test_int16_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_3 ; -- Begin function test_int16_t__shift_6_3
.p2align 2
_test_int16_t__shift_6_3: ; @test_int16_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_4 ; -- Begin function test_int16_t__shift_6_4
.p2align 2
_test_int16_t__shift_6_4: ; @test_int16_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_5 ; -- Begin function test_int16_t__shift_6_5
.p2align 2
_test_int16_t__shift_6_5: ; @test_int16_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_6 ; -- Begin function test_int16_t__shift_6_6
.p2align 2
_test_int16_t__shift_6_6: ; @test_int16_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_7 ; -- Begin function test_int16_t__shift_6_7
.p2align 2
_test_int16_t__shift_6_7: ; @test_int16_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_8 ; -- Begin function test_int16_t__shift_6_8
.p2align 2
_test_int16_t__shift_6_8: ; @test_int16_t__shift_6_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_9 ; -- Begin function test_int16_t__shift_6_9
.p2align 2
_test_int16_t__shift_6_9: ; @test_int16_t__shift_6_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_10 ; -- Begin function test_int16_t__shift_6_10
.p2align 2
_test_int16_t__shift_6_10: ; @test_int16_t__shift_6_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_6_11 ; -- Begin function test_int16_t__shift_6_11
.p2align 2
_test_int16_t__shift_6_11: ; @test_int16_t__shift_6_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_0 ; -- Begin function test_int16_t__shift_7_0
.p2align 2
_test_int16_t__shift_7_0: ; @test_int16_t__shift_7_0
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_1 ; -- Begin function test_int16_t__shift_7_1
.p2align 2
_test_int16_t__shift_7_1: ; @test_int16_t__shift_7_1
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_2 ; -- Begin function test_int16_t__shift_7_2
.p2align 2
_test_int16_t__shift_7_2: ; @test_int16_t__shift_7_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_3 ; -- Begin function test_int16_t__shift_7_3
.p2align 2
_test_int16_t__shift_7_3: ; @test_int16_t__shift_7_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_4 ; -- Begin function test_int16_t__shift_7_4
.p2align 2
_test_int16_t__shift_7_4: ; @test_int16_t__shift_7_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_5 ; -- Begin function test_int16_t__shift_7_5
.p2align 2
_test_int16_t__shift_7_5: ; @test_int16_t__shift_7_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_6 ; -- Begin function test_int16_t__shift_7_6
.p2align 2
_test_int16_t__shift_7_6: ; @test_int16_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_7 ; -- Begin function test_int16_t__shift_7_7
.p2align 2
_test_int16_t__shift_7_7: ; @test_int16_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_8 ; -- Begin function test_int16_t__shift_7_8
.p2align 2
_test_int16_t__shift_7_8: ; @test_int16_t__shift_7_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_9 ; -- Begin function test_int16_t__shift_7_9
.p2align 2
_test_int16_t__shift_7_9: ; @test_int16_t__shift_7_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_10 ; -- Begin function test_int16_t__shift_7_10
.p2align 2
_test_int16_t__shift_7_10: ; @test_int16_t__shift_7_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int16_t__shift_7_11 ; -- Begin function test_int16_t__shift_7_11
.p2align 2
_test_int16_t__shift_7_11: ; @test_int16_t__shift_7_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_0 ; -- Begin function test_uint16_t__shift_0_0
.p2align 2
_test_uint16_t__shift_0_0: ; @test_uint16_t__shift_0_0
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_1 ; -- Begin function test_uint16_t__shift_0_1
.p2align 2
_test_uint16_t__shift_0_1: ; @test_uint16_t__shift_0_1
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_2 ; -- Begin function test_uint16_t__shift_0_2
.p2align 2
_test_uint16_t__shift_0_2: ; @test_uint16_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_3 ; -- Begin function test_uint16_t__shift_0_3
.p2align 2
_test_uint16_t__shift_0_3: ; @test_uint16_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_4 ; -- Begin function test_uint16_t__shift_0_4
.p2align 2
_test_uint16_t__shift_0_4: ; @test_uint16_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_5 ; -- Begin function test_uint16_t__shift_0_5
.p2align 2
_test_uint16_t__shift_0_5: ; @test_uint16_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_6 ; -- Begin function test_uint16_t__shift_0_6
.p2align 2
_test_uint16_t__shift_0_6: ; @test_uint16_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_7 ; -- Begin function test_uint16_t__shift_0_7
.p2align 2
_test_uint16_t__shift_0_7: ; @test_uint16_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_8 ; -- Begin function test_uint16_t__shift_0_8
.p2align 2
_test_uint16_t__shift_0_8: ; @test_uint16_t__shift_0_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_9 ; -- Begin function test_uint16_t__shift_0_9
.p2align 2
_test_uint16_t__shift_0_9: ; @test_uint16_t__shift_0_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_10 ; -- Begin function test_uint16_t__shift_0_10
.p2align 2
_test_uint16_t__shift_0_10: ; @test_uint16_t__shift_0_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_0_11 ; -- Begin function test_uint16_t__shift_0_11
.p2align 2
_test_uint16_t__shift_0_11: ; @test_uint16_t__shift_0_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_0 ; -- Begin function test_uint16_t__shift_1_0
.p2align 2
_test_uint16_t__shift_1_0: ; @test_uint16_t__shift_1_0
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_1 ; -- Begin function test_uint16_t__shift_1_1
.p2align 2
_test_uint16_t__shift_1_1: ; @test_uint16_t__shift_1_1
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_2 ; -- Begin function test_uint16_t__shift_1_2
.p2align 2
_test_uint16_t__shift_1_2: ; @test_uint16_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_3 ; -- Begin function test_uint16_t__shift_1_3
.p2align 2
_test_uint16_t__shift_1_3: ; @test_uint16_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_4 ; -- Begin function test_uint16_t__shift_1_4
.p2align 2
_test_uint16_t__shift_1_4: ; @test_uint16_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_5 ; -- Begin function test_uint16_t__shift_1_5
.p2align 2
_test_uint16_t__shift_1_5: ; @test_uint16_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_6 ; -- Begin function test_uint16_t__shift_1_6
.p2align 2
_test_uint16_t__shift_1_6: ; @test_uint16_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_7 ; -- Begin function test_uint16_t__shift_1_7
.p2align 2
_test_uint16_t__shift_1_7: ; @test_uint16_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_8 ; -- Begin function test_uint16_t__shift_1_8
.p2align 2
_test_uint16_t__shift_1_8: ; @test_uint16_t__shift_1_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_9 ; -- Begin function test_uint16_t__shift_1_9
.p2align 2
_test_uint16_t__shift_1_9: ; @test_uint16_t__shift_1_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_10 ; -- Begin function test_uint16_t__shift_1_10
.p2align 2
_test_uint16_t__shift_1_10: ; @test_uint16_t__shift_1_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_1_11 ; -- Begin function test_uint16_t__shift_1_11
.p2align 2
_test_uint16_t__shift_1_11: ; @test_uint16_t__shift_1_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_0 ; -- Begin function test_uint16_t__shift_2_0
.p2align 2
_test_uint16_t__shift_2_0: ; @test_uint16_t__shift_2_0
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_1 ; -- Begin function test_uint16_t__shift_2_1
.p2align 2
_test_uint16_t__shift_2_1: ; @test_uint16_t__shift_2_1
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_2 ; -- Begin function test_uint16_t__shift_2_2
.p2align 2
_test_uint16_t__shift_2_2: ; @test_uint16_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_3 ; -- Begin function test_uint16_t__shift_2_3
.p2align 2
_test_uint16_t__shift_2_3: ; @test_uint16_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_4 ; -- Begin function test_uint16_t__shift_2_4
.p2align 2
_test_uint16_t__shift_2_4: ; @test_uint16_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_5 ; -- Begin function test_uint16_t__shift_2_5
.p2align 2
_test_uint16_t__shift_2_5: ; @test_uint16_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_6 ; -- Begin function test_uint16_t__shift_2_6
.p2align 2
_test_uint16_t__shift_2_6: ; @test_uint16_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_7 ; -- Begin function test_uint16_t__shift_2_7
.p2align 2
_test_uint16_t__shift_2_7: ; @test_uint16_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_8 ; -- Begin function test_uint16_t__shift_2_8
.p2align 2
_test_uint16_t__shift_2_8: ; @test_uint16_t__shift_2_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_9 ; -- Begin function test_uint16_t__shift_2_9
.p2align 2
_test_uint16_t__shift_2_9: ; @test_uint16_t__shift_2_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_10 ; -- Begin function test_uint16_t__shift_2_10
.p2align 2
_test_uint16_t__shift_2_10: ; @test_uint16_t__shift_2_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_2_11 ; -- Begin function test_uint16_t__shift_2_11
.p2align 2
_test_uint16_t__shift_2_11: ; @test_uint16_t__shift_2_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_0 ; -- Begin function test_uint16_t__shift_3_0
.p2align 2
_test_uint16_t__shift_3_0: ; @test_uint16_t__shift_3_0
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_1 ; -- Begin function test_uint16_t__shift_3_1
.p2align 2
_test_uint16_t__shift_3_1: ; @test_uint16_t__shift_3_1
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_2 ; -- Begin function test_uint16_t__shift_3_2
.p2align 2
_test_uint16_t__shift_3_2: ; @test_uint16_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_3 ; -- Begin function test_uint16_t__shift_3_3
.p2align 2
_test_uint16_t__shift_3_3: ; @test_uint16_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_4 ; -- Begin function test_uint16_t__shift_3_4
.p2align 2
_test_uint16_t__shift_3_4: ; @test_uint16_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_5 ; -- Begin function test_uint16_t__shift_3_5
.p2align 2
_test_uint16_t__shift_3_5: ; @test_uint16_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_6 ; -- Begin function test_uint16_t__shift_3_6
.p2align 2
_test_uint16_t__shift_3_6: ; @test_uint16_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_7 ; -- Begin function test_uint16_t__shift_3_7
.p2align 2
_test_uint16_t__shift_3_7: ; @test_uint16_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_8 ; -- Begin function test_uint16_t__shift_3_8
.p2align 2
_test_uint16_t__shift_3_8: ; @test_uint16_t__shift_3_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_9 ; -- Begin function test_uint16_t__shift_3_9
.p2align 2
_test_uint16_t__shift_3_9: ; @test_uint16_t__shift_3_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_10 ; -- Begin function test_uint16_t__shift_3_10
.p2align 2
_test_uint16_t__shift_3_10: ; @test_uint16_t__shift_3_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_3_11 ; -- Begin function test_uint16_t__shift_3_11
.p2align 2
_test_uint16_t__shift_3_11: ; @test_uint16_t__shift_3_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_0 ; -- Begin function test_uint16_t__shift_4_0
.p2align 2
_test_uint16_t__shift_4_0: ; @test_uint16_t__shift_4_0
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_1 ; -- Begin function test_uint16_t__shift_4_1
.p2align 2
_test_uint16_t__shift_4_1: ; @test_uint16_t__shift_4_1
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_2 ; -- Begin function test_uint16_t__shift_4_2
.p2align 2
_test_uint16_t__shift_4_2: ; @test_uint16_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_3 ; -- Begin function test_uint16_t__shift_4_3
.p2align 2
_test_uint16_t__shift_4_3: ; @test_uint16_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_4 ; -- Begin function test_uint16_t__shift_4_4
.p2align 2
_test_uint16_t__shift_4_4: ; @test_uint16_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_5 ; -- Begin function test_uint16_t__shift_4_5
.p2align 2
_test_uint16_t__shift_4_5: ; @test_uint16_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_6 ; -- Begin function test_uint16_t__shift_4_6
.p2align 2
_test_uint16_t__shift_4_6: ; @test_uint16_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_7 ; -- Begin function test_uint16_t__shift_4_7
.p2align 2
_test_uint16_t__shift_4_7: ; @test_uint16_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_8 ; -- Begin function test_uint16_t__shift_4_8
.p2align 2
_test_uint16_t__shift_4_8: ; @test_uint16_t__shift_4_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_9 ; -- Begin function test_uint16_t__shift_4_9
.p2align 2
_test_uint16_t__shift_4_9: ; @test_uint16_t__shift_4_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_10 ; -- Begin function test_uint16_t__shift_4_10
.p2align 2
_test_uint16_t__shift_4_10: ; @test_uint16_t__shift_4_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_4_11 ; -- Begin function test_uint16_t__shift_4_11
.p2align 2
_test_uint16_t__shift_4_11: ; @test_uint16_t__shift_4_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_0 ; -- Begin function test_uint16_t__shift_5_0
.p2align 2
_test_uint16_t__shift_5_0: ; @test_uint16_t__shift_5_0
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_1 ; -- Begin function test_uint16_t__shift_5_1
.p2align 2
_test_uint16_t__shift_5_1: ; @test_uint16_t__shift_5_1
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_2 ; -- Begin function test_uint16_t__shift_5_2
.p2align 2
_test_uint16_t__shift_5_2: ; @test_uint16_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_3 ; -- Begin function test_uint16_t__shift_5_3
.p2align 2
_test_uint16_t__shift_5_3: ; @test_uint16_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_4 ; -- Begin function test_uint16_t__shift_5_4
.p2align 2
_test_uint16_t__shift_5_4: ; @test_uint16_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_5 ; -- Begin function test_uint16_t__shift_5_5
.p2align 2
_test_uint16_t__shift_5_5: ; @test_uint16_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_6 ; -- Begin function test_uint16_t__shift_5_6
.p2align 2
_test_uint16_t__shift_5_6: ; @test_uint16_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_7 ; -- Begin function test_uint16_t__shift_5_7
.p2align 2
_test_uint16_t__shift_5_7: ; @test_uint16_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_8 ; -- Begin function test_uint16_t__shift_5_8
.p2align 2
_test_uint16_t__shift_5_8: ; @test_uint16_t__shift_5_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_9 ; -- Begin function test_uint16_t__shift_5_9
.p2align 2
_test_uint16_t__shift_5_9: ; @test_uint16_t__shift_5_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_10 ; -- Begin function test_uint16_t__shift_5_10
.p2align 2
_test_uint16_t__shift_5_10: ; @test_uint16_t__shift_5_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_5_11 ; -- Begin function test_uint16_t__shift_5_11
.p2align 2
_test_uint16_t__shift_5_11: ; @test_uint16_t__shift_5_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_0 ; -- Begin function test_uint16_t__shift_6_0
.p2align 2
_test_uint16_t__shift_6_0: ; @test_uint16_t__shift_6_0
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_1 ; -- Begin function test_uint16_t__shift_6_1
.p2align 2
_test_uint16_t__shift_6_1: ; @test_uint16_t__shift_6_1
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_2 ; -- Begin function test_uint16_t__shift_6_2
.p2align 2
_test_uint16_t__shift_6_2: ; @test_uint16_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_3 ; -- Begin function test_uint16_t__shift_6_3
.p2align 2
_test_uint16_t__shift_6_3: ; @test_uint16_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_4 ; -- Begin function test_uint16_t__shift_6_4
.p2align 2
_test_uint16_t__shift_6_4: ; @test_uint16_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_5 ; -- Begin function test_uint16_t__shift_6_5
.p2align 2
_test_uint16_t__shift_6_5: ; @test_uint16_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_6 ; -- Begin function test_uint16_t__shift_6_6
.p2align 2
_test_uint16_t__shift_6_6: ; @test_uint16_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_7 ; -- Begin function test_uint16_t__shift_6_7
.p2align 2
_test_uint16_t__shift_6_7: ; @test_uint16_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_8 ; -- Begin function test_uint16_t__shift_6_8
.p2align 2
_test_uint16_t__shift_6_8: ; @test_uint16_t__shift_6_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_9 ; -- Begin function test_uint16_t__shift_6_9
.p2align 2
_test_uint16_t__shift_6_9: ; @test_uint16_t__shift_6_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_10 ; -- Begin function test_uint16_t__shift_6_10
.p2align 2
_test_uint16_t__shift_6_10: ; @test_uint16_t__shift_6_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_6_11 ; -- Begin function test_uint16_t__shift_6_11
.p2align 2
_test_uint16_t__shift_6_11: ; @test_uint16_t__shift_6_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_0 ; -- Begin function test_uint16_t__shift_7_0
.p2align 2
_test_uint16_t__shift_7_0: ; @test_uint16_t__shift_7_0
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_1 ; -- Begin function test_uint16_t__shift_7_1
.p2align 2
_test_uint16_t__shift_7_1: ; @test_uint16_t__shift_7_1
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_2 ; -- Begin function test_uint16_t__shift_7_2
.p2align 2
_test_uint16_t__shift_7_2: ; @test_uint16_t__shift_7_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_3 ; -- Begin function test_uint16_t__shift_7_3
.p2align 2
_test_uint16_t__shift_7_3: ; @test_uint16_t__shift_7_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_4 ; -- Begin function test_uint16_t__shift_7_4
.p2align 2
_test_uint16_t__shift_7_4: ; @test_uint16_t__shift_7_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_5 ; -- Begin function test_uint16_t__shift_7_5
.p2align 2
_test_uint16_t__shift_7_5: ; @test_uint16_t__shift_7_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_6 ; -- Begin function test_uint16_t__shift_7_6
.p2align 2
_test_uint16_t__shift_7_6: ; @test_uint16_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_7 ; -- Begin function test_uint16_t__shift_7_7
.p2align 2
_test_uint16_t__shift_7_7: ; @test_uint16_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
tst w8, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_8 ; -- Begin function test_uint16_t__shift_7_8
.p2align 2
_test_uint16_t__shift_7_8: ; @test_uint16_t__shift_7_8
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_9 ; -- Begin function test_uint16_t__shift_7_9
.p2align 2
_test_uint16_t__shift_7_9: ; @test_uint16_t__shift_7_9
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_10 ; -- Begin function test_uint16_t__shift_7_10
.p2align 2
_test_uint16_t__shift_7_10: ; @test_uint16_t__shift_7_10
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint16_t__shift_7_11 ; -- Begin function test_uint16_t__shift_7_11
.p2align 2
_test_uint16_t__shift_7_11: ; @test_uint16_t__shift_7_11
.cfi_startproc
; %bb.0:
ldrh w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_0 ; -- Begin function test_int32_t__shift_0_0
.p2align 2
_test_int32_t__shift_0_0: ; @test_int32_t__shift_0_0
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_1 ; -- Begin function test_int32_t__shift_0_1
.p2align 2
_test_int32_t__shift_0_1: ; @test_int32_t__shift_0_1
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_2 ; -- Begin function test_int32_t__shift_0_2
.p2align 2
_test_int32_t__shift_0_2: ; @test_int32_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_3 ; -- Begin function test_int32_t__shift_0_3
.p2align 2
_test_int32_t__shift_0_3: ; @test_int32_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_4 ; -- Begin function test_int32_t__shift_0_4
.p2align 2
_test_int32_t__shift_0_4: ; @test_int32_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_5 ; -- Begin function test_int32_t__shift_0_5
.p2align 2
_test_int32_t__shift_0_5: ; @test_int32_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_6 ; -- Begin function test_int32_t__shift_0_6
.p2align 2
_test_int32_t__shift_0_6: ; @test_int32_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_7 ; -- Begin function test_int32_t__shift_0_7
.p2align 2
_test_int32_t__shift_0_7: ; @test_int32_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_8 ; -- Begin function test_int32_t__shift_0_8
.p2align 2
_test_int32_t__shift_0_8: ; @test_int32_t__shift_0_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_9 ; -- Begin function test_int32_t__shift_0_9
.p2align 2
_test_int32_t__shift_0_9: ; @test_int32_t__shift_0_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_10 ; -- Begin function test_int32_t__shift_0_10
.p2align 2
_test_int32_t__shift_0_10: ; @test_int32_t__shift_0_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_0_11 ; -- Begin function test_int32_t__shift_0_11
.p2align 2
_test_int32_t__shift_0_11: ; @test_int32_t__shift_0_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_0 ; -- Begin function test_int32_t__shift_1_0
.p2align 2
_test_int32_t__shift_1_0: ; @test_int32_t__shift_1_0
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_1 ; -- Begin function test_int32_t__shift_1_1
.p2align 2
_test_int32_t__shift_1_1: ; @test_int32_t__shift_1_1
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_2 ; -- Begin function test_int32_t__shift_1_2
.p2align 2
_test_int32_t__shift_1_2: ; @test_int32_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_3 ; -- Begin function test_int32_t__shift_1_3
.p2align 2
_test_int32_t__shift_1_3: ; @test_int32_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_4 ; -- Begin function test_int32_t__shift_1_4
.p2align 2
_test_int32_t__shift_1_4: ; @test_int32_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_5 ; -- Begin function test_int32_t__shift_1_5
.p2align 2
_test_int32_t__shift_1_5: ; @test_int32_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_6 ; -- Begin function test_int32_t__shift_1_6
.p2align 2
_test_int32_t__shift_1_6: ; @test_int32_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_7 ; -- Begin function test_int32_t__shift_1_7
.p2align 2
_test_int32_t__shift_1_7: ; @test_int32_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_8 ; -- Begin function test_int32_t__shift_1_8
.p2align 2
_test_int32_t__shift_1_8: ; @test_int32_t__shift_1_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_9 ; -- Begin function test_int32_t__shift_1_9
.p2align 2
_test_int32_t__shift_1_9: ; @test_int32_t__shift_1_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_10 ; -- Begin function test_int32_t__shift_1_10
.p2align 2
_test_int32_t__shift_1_10: ; @test_int32_t__shift_1_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_1_11 ; -- Begin function test_int32_t__shift_1_11
.p2align 2
_test_int32_t__shift_1_11: ; @test_int32_t__shift_1_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_0 ; -- Begin function test_int32_t__shift_2_0
.p2align 2
_test_int32_t__shift_2_0: ; @test_int32_t__shift_2_0
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_1 ; -- Begin function test_int32_t__shift_2_1
.p2align 2
_test_int32_t__shift_2_1: ; @test_int32_t__shift_2_1
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_2 ; -- Begin function test_int32_t__shift_2_2
.p2align 2
_test_int32_t__shift_2_2: ; @test_int32_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_3 ; -- Begin function test_int32_t__shift_2_3
.p2align 2
_test_int32_t__shift_2_3: ; @test_int32_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_4 ; -- Begin function test_int32_t__shift_2_4
.p2align 2
_test_int32_t__shift_2_4: ; @test_int32_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_5 ; -- Begin function test_int32_t__shift_2_5
.p2align 2
_test_int32_t__shift_2_5: ; @test_int32_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_6 ; -- Begin function test_int32_t__shift_2_6
.p2align 2
_test_int32_t__shift_2_6: ; @test_int32_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_7 ; -- Begin function test_int32_t__shift_2_7
.p2align 2
_test_int32_t__shift_2_7: ; @test_int32_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_8 ; -- Begin function test_int32_t__shift_2_8
.p2align 2
_test_int32_t__shift_2_8: ; @test_int32_t__shift_2_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_9 ; -- Begin function test_int32_t__shift_2_9
.p2align 2
_test_int32_t__shift_2_9: ; @test_int32_t__shift_2_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_10 ; -- Begin function test_int32_t__shift_2_10
.p2align 2
_test_int32_t__shift_2_10: ; @test_int32_t__shift_2_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_2_11 ; -- Begin function test_int32_t__shift_2_11
.p2align 2
_test_int32_t__shift_2_11: ; @test_int32_t__shift_2_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_0 ; -- Begin function test_int32_t__shift_3_0
.p2align 2
_test_int32_t__shift_3_0: ; @test_int32_t__shift_3_0
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_1 ; -- Begin function test_int32_t__shift_3_1
.p2align 2
_test_int32_t__shift_3_1: ; @test_int32_t__shift_3_1
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_2 ; -- Begin function test_int32_t__shift_3_2
.p2align 2
_test_int32_t__shift_3_2: ; @test_int32_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_3 ; -- Begin function test_int32_t__shift_3_3
.p2align 2
_test_int32_t__shift_3_3: ; @test_int32_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_4 ; -- Begin function test_int32_t__shift_3_4
.p2align 2
_test_int32_t__shift_3_4: ; @test_int32_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_5 ; -- Begin function test_int32_t__shift_3_5
.p2align 2
_test_int32_t__shift_3_5: ; @test_int32_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_6 ; -- Begin function test_int32_t__shift_3_6
.p2align 2
_test_int32_t__shift_3_6: ; @test_int32_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_7 ; -- Begin function test_int32_t__shift_3_7
.p2align 2
_test_int32_t__shift_3_7: ; @test_int32_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_8 ; -- Begin function test_int32_t__shift_3_8
.p2align 2
_test_int32_t__shift_3_8: ; @test_int32_t__shift_3_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_9 ; -- Begin function test_int32_t__shift_3_9
.p2align 2
_test_int32_t__shift_3_9: ; @test_int32_t__shift_3_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_10 ; -- Begin function test_int32_t__shift_3_10
.p2align 2
_test_int32_t__shift_3_10: ; @test_int32_t__shift_3_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_3_11 ; -- Begin function test_int32_t__shift_3_11
.p2align 2
_test_int32_t__shift_3_11: ; @test_int32_t__shift_3_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_0 ; -- Begin function test_int32_t__shift_4_0
.p2align 2
_test_int32_t__shift_4_0: ; @test_int32_t__shift_4_0
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_1 ; -- Begin function test_int32_t__shift_4_1
.p2align 2
_test_int32_t__shift_4_1: ; @test_int32_t__shift_4_1
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_2 ; -- Begin function test_int32_t__shift_4_2
.p2align 2
_test_int32_t__shift_4_2: ; @test_int32_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_3 ; -- Begin function test_int32_t__shift_4_3
.p2align 2
_test_int32_t__shift_4_3: ; @test_int32_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_4 ; -- Begin function test_int32_t__shift_4_4
.p2align 2
_test_int32_t__shift_4_4: ; @test_int32_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_5 ; -- Begin function test_int32_t__shift_4_5
.p2align 2
_test_int32_t__shift_4_5: ; @test_int32_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_6 ; -- Begin function test_int32_t__shift_4_6
.p2align 2
_test_int32_t__shift_4_6: ; @test_int32_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_7 ; -- Begin function test_int32_t__shift_4_7
.p2align 2
_test_int32_t__shift_4_7: ; @test_int32_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_8 ; -- Begin function test_int32_t__shift_4_8
.p2align 2
_test_int32_t__shift_4_8: ; @test_int32_t__shift_4_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_9 ; -- Begin function test_int32_t__shift_4_9
.p2align 2
_test_int32_t__shift_4_9: ; @test_int32_t__shift_4_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_10 ; -- Begin function test_int32_t__shift_4_10
.p2align 2
_test_int32_t__shift_4_10: ; @test_int32_t__shift_4_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_4_11 ; -- Begin function test_int32_t__shift_4_11
.p2align 2
_test_int32_t__shift_4_11: ; @test_int32_t__shift_4_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_0 ; -- Begin function test_int32_t__shift_5_0
.p2align 2
_test_int32_t__shift_5_0: ; @test_int32_t__shift_5_0
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_1 ; -- Begin function test_int32_t__shift_5_1
.p2align 2
_test_int32_t__shift_5_1: ; @test_int32_t__shift_5_1
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_2 ; -- Begin function test_int32_t__shift_5_2
.p2align 2
_test_int32_t__shift_5_2: ; @test_int32_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_3 ; -- Begin function test_int32_t__shift_5_3
.p2align 2
_test_int32_t__shift_5_3: ; @test_int32_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_4 ; -- Begin function test_int32_t__shift_5_4
.p2align 2
_test_int32_t__shift_5_4: ; @test_int32_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_5 ; -- Begin function test_int32_t__shift_5_5
.p2align 2
_test_int32_t__shift_5_5: ; @test_int32_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_6 ; -- Begin function test_int32_t__shift_5_6
.p2align 2
_test_int32_t__shift_5_6: ; @test_int32_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_7 ; -- Begin function test_int32_t__shift_5_7
.p2align 2
_test_int32_t__shift_5_7: ; @test_int32_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_8 ; -- Begin function test_int32_t__shift_5_8
.p2align 2
_test_int32_t__shift_5_8: ; @test_int32_t__shift_5_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_9 ; -- Begin function test_int32_t__shift_5_9
.p2align 2
_test_int32_t__shift_5_9: ; @test_int32_t__shift_5_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_10 ; -- Begin function test_int32_t__shift_5_10
.p2align 2
_test_int32_t__shift_5_10: ; @test_int32_t__shift_5_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_5_11 ; -- Begin function test_int32_t__shift_5_11
.p2align 2
_test_int32_t__shift_5_11: ; @test_int32_t__shift_5_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_0 ; -- Begin function test_int32_t__shift_6_0
.p2align 2
_test_int32_t__shift_6_0: ; @test_int32_t__shift_6_0
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_1 ; -- Begin function test_int32_t__shift_6_1
.p2align 2
_test_int32_t__shift_6_1: ; @test_int32_t__shift_6_1
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_2 ; -- Begin function test_int32_t__shift_6_2
.p2align 2
_test_int32_t__shift_6_2: ; @test_int32_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_3 ; -- Begin function test_int32_t__shift_6_3
.p2align 2
_test_int32_t__shift_6_3: ; @test_int32_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_4 ; -- Begin function test_int32_t__shift_6_4
.p2align 2
_test_int32_t__shift_6_4: ; @test_int32_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_5 ; -- Begin function test_int32_t__shift_6_5
.p2align 2
_test_int32_t__shift_6_5: ; @test_int32_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_6 ; -- Begin function test_int32_t__shift_6_6
.p2align 2
_test_int32_t__shift_6_6: ; @test_int32_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_7 ; -- Begin function test_int32_t__shift_6_7
.p2align 2
_test_int32_t__shift_6_7: ; @test_int32_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_8 ; -- Begin function test_int32_t__shift_6_8
.p2align 2
_test_int32_t__shift_6_8: ; @test_int32_t__shift_6_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_9 ; -- Begin function test_int32_t__shift_6_9
.p2align 2
_test_int32_t__shift_6_9: ; @test_int32_t__shift_6_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_10 ; -- Begin function test_int32_t__shift_6_10
.p2align 2
_test_int32_t__shift_6_10: ; @test_int32_t__shift_6_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_6_11 ; -- Begin function test_int32_t__shift_6_11
.p2align 2
_test_int32_t__shift_6_11: ; @test_int32_t__shift_6_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_0 ; -- Begin function test_int32_t__shift_7_0
.p2align 2
_test_int32_t__shift_7_0: ; @test_int32_t__shift_7_0
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_1 ; -- Begin function test_int32_t__shift_7_1
.p2align 2
_test_int32_t__shift_7_1: ; @test_int32_t__shift_7_1
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_2 ; -- Begin function test_int32_t__shift_7_2
.p2align 2
_test_int32_t__shift_7_2: ; @test_int32_t__shift_7_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_3 ; -- Begin function test_int32_t__shift_7_3
.p2align 2
_test_int32_t__shift_7_3: ; @test_int32_t__shift_7_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_4 ; -- Begin function test_int32_t__shift_7_4
.p2align 2
_test_int32_t__shift_7_4: ; @test_int32_t__shift_7_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_5 ; -- Begin function test_int32_t__shift_7_5
.p2align 2
_test_int32_t__shift_7_5: ; @test_int32_t__shift_7_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_6 ; -- Begin function test_int32_t__shift_7_6
.p2align 2
_test_int32_t__shift_7_6: ; @test_int32_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_7 ; -- Begin function test_int32_t__shift_7_7
.p2align 2
_test_int32_t__shift_7_7: ; @test_int32_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_8 ; -- Begin function test_int32_t__shift_7_8
.p2align 2
_test_int32_t__shift_7_8: ; @test_int32_t__shift_7_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_9 ; -- Begin function test_int32_t__shift_7_9
.p2align 2
_test_int32_t__shift_7_9: ; @test_int32_t__shift_7_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_10 ; -- Begin function test_int32_t__shift_7_10
.p2align 2
_test_int32_t__shift_7_10: ; @test_int32_t__shift_7_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int32_t__shift_7_11 ; -- Begin function test_int32_t__shift_7_11
.p2align 2
_test_int32_t__shift_7_11: ; @test_int32_t__shift_7_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_0 ; -- Begin function test_uint32_t__shift_0_0
.p2align 2
_test_uint32_t__shift_0_0: ; @test_uint32_t__shift_0_0
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_1 ; -- Begin function test_uint32_t__shift_0_1
.p2align 2
_test_uint32_t__shift_0_1: ; @test_uint32_t__shift_0_1
.cfi_startproc
; %bb.0:
tst w0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_2 ; -- Begin function test_uint32_t__shift_0_2
.p2align 2
_test_uint32_t__shift_0_2: ; @test_uint32_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_3 ; -- Begin function test_uint32_t__shift_0_3
.p2align 2
_test_uint32_t__shift_0_3: ; @test_uint32_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_4 ; -- Begin function test_uint32_t__shift_0_4
.p2align 2
_test_uint32_t__shift_0_4: ; @test_uint32_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_5 ; -- Begin function test_uint32_t__shift_0_5
.p2align 2
_test_uint32_t__shift_0_5: ; @test_uint32_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_6 ; -- Begin function test_uint32_t__shift_0_6
.p2align 2
_test_uint32_t__shift_0_6: ; @test_uint32_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_7 ; -- Begin function test_uint32_t__shift_0_7
.p2align 2
_test_uint32_t__shift_0_7: ; @test_uint32_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_8 ; -- Begin function test_uint32_t__shift_0_8
.p2align 2
_test_uint32_t__shift_0_8: ; @test_uint32_t__shift_0_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_9 ; -- Begin function test_uint32_t__shift_0_9
.p2align 2
_test_uint32_t__shift_0_9: ; @test_uint32_t__shift_0_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_10 ; -- Begin function test_uint32_t__shift_0_10
.p2align 2
_test_uint32_t__shift_0_10: ; @test_uint32_t__shift_0_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_0_11 ; -- Begin function test_uint32_t__shift_0_11
.p2align 2
_test_uint32_t__shift_0_11: ; @test_uint32_t__shift_0_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_0 ; -- Begin function test_uint32_t__shift_1_0
.p2align 2
_test_uint32_t__shift_1_0: ; @test_uint32_t__shift_1_0
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_1 ; -- Begin function test_uint32_t__shift_1_1
.p2align 2
_test_uint32_t__shift_1_1: ; @test_uint32_t__shift_1_1
.cfi_startproc
; %bb.0:
tst w0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_2 ; -- Begin function test_uint32_t__shift_1_2
.p2align 2
_test_uint32_t__shift_1_2: ; @test_uint32_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_3 ; -- Begin function test_uint32_t__shift_1_3
.p2align 2
_test_uint32_t__shift_1_3: ; @test_uint32_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_4 ; -- Begin function test_uint32_t__shift_1_4
.p2align 2
_test_uint32_t__shift_1_4: ; @test_uint32_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_5 ; -- Begin function test_uint32_t__shift_1_5
.p2align 2
_test_uint32_t__shift_1_5: ; @test_uint32_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_6 ; -- Begin function test_uint32_t__shift_1_6
.p2align 2
_test_uint32_t__shift_1_6: ; @test_uint32_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_7 ; -- Begin function test_uint32_t__shift_1_7
.p2align 2
_test_uint32_t__shift_1_7: ; @test_uint32_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_8 ; -- Begin function test_uint32_t__shift_1_8
.p2align 2
_test_uint32_t__shift_1_8: ; @test_uint32_t__shift_1_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_9 ; -- Begin function test_uint32_t__shift_1_9
.p2align 2
_test_uint32_t__shift_1_9: ; @test_uint32_t__shift_1_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_10 ; -- Begin function test_uint32_t__shift_1_10
.p2align 2
_test_uint32_t__shift_1_10: ; @test_uint32_t__shift_1_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_1_11 ; -- Begin function test_uint32_t__shift_1_11
.p2align 2
_test_uint32_t__shift_1_11: ; @test_uint32_t__shift_1_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_0 ; -- Begin function test_uint32_t__shift_2_0
.p2align 2
_test_uint32_t__shift_2_0: ; @test_uint32_t__shift_2_0
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_1 ; -- Begin function test_uint32_t__shift_2_1
.p2align 2
_test_uint32_t__shift_2_1: ; @test_uint32_t__shift_2_1
.cfi_startproc
; %bb.0:
tst w0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_2 ; -- Begin function test_uint32_t__shift_2_2
.p2align 2
_test_uint32_t__shift_2_2: ; @test_uint32_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_3 ; -- Begin function test_uint32_t__shift_2_3
.p2align 2
_test_uint32_t__shift_2_3: ; @test_uint32_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_4 ; -- Begin function test_uint32_t__shift_2_4
.p2align 2
_test_uint32_t__shift_2_4: ; @test_uint32_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_5 ; -- Begin function test_uint32_t__shift_2_5
.p2align 2
_test_uint32_t__shift_2_5: ; @test_uint32_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_6 ; -- Begin function test_uint32_t__shift_2_6
.p2align 2
_test_uint32_t__shift_2_6: ; @test_uint32_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_7 ; -- Begin function test_uint32_t__shift_2_7
.p2align 2
_test_uint32_t__shift_2_7: ; @test_uint32_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_8 ; -- Begin function test_uint32_t__shift_2_8
.p2align 2
_test_uint32_t__shift_2_8: ; @test_uint32_t__shift_2_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_9 ; -- Begin function test_uint32_t__shift_2_9
.p2align 2
_test_uint32_t__shift_2_9: ; @test_uint32_t__shift_2_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_10 ; -- Begin function test_uint32_t__shift_2_10
.p2align 2
_test_uint32_t__shift_2_10: ; @test_uint32_t__shift_2_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_2_11 ; -- Begin function test_uint32_t__shift_2_11
.p2align 2
_test_uint32_t__shift_2_11: ; @test_uint32_t__shift_2_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_0 ; -- Begin function test_uint32_t__shift_3_0
.p2align 2
_test_uint32_t__shift_3_0: ; @test_uint32_t__shift_3_0
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_1 ; -- Begin function test_uint32_t__shift_3_1
.p2align 2
_test_uint32_t__shift_3_1: ; @test_uint32_t__shift_3_1
.cfi_startproc
; %bb.0:
tst w0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_2 ; -- Begin function test_uint32_t__shift_3_2
.p2align 2
_test_uint32_t__shift_3_2: ; @test_uint32_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_3 ; -- Begin function test_uint32_t__shift_3_3
.p2align 2
_test_uint32_t__shift_3_3: ; @test_uint32_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_4 ; -- Begin function test_uint32_t__shift_3_4
.p2align 2
_test_uint32_t__shift_3_4: ; @test_uint32_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_5 ; -- Begin function test_uint32_t__shift_3_5
.p2align 2
_test_uint32_t__shift_3_5: ; @test_uint32_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_6 ; -- Begin function test_uint32_t__shift_3_6
.p2align 2
_test_uint32_t__shift_3_6: ; @test_uint32_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_7 ; -- Begin function test_uint32_t__shift_3_7
.p2align 2
_test_uint32_t__shift_3_7: ; @test_uint32_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_8 ; -- Begin function test_uint32_t__shift_3_8
.p2align 2
_test_uint32_t__shift_3_8: ; @test_uint32_t__shift_3_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_9 ; -- Begin function test_uint32_t__shift_3_9
.p2align 2
_test_uint32_t__shift_3_9: ; @test_uint32_t__shift_3_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_10 ; -- Begin function test_uint32_t__shift_3_10
.p2align 2
_test_uint32_t__shift_3_10: ; @test_uint32_t__shift_3_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_3_11 ; -- Begin function test_uint32_t__shift_3_11
.p2align 2
_test_uint32_t__shift_3_11: ; @test_uint32_t__shift_3_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_0 ; -- Begin function test_uint32_t__shift_4_0
.p2align 2
_test_uint32_t__shift_4_0: ; @test_uint32_t__shift_4_0
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_1 ; -- Begin function test_uint32_t__shift_4_1
.p2align 2
_test_uint32_t__shift_4_1: ; @test_uint32_t__shift_4_1
.cfi_startproc
; %bb.0:
tst w0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_2 ; -- Begin function test_uint32_t__shift_4_2
.p2align 2
_test_uint32_t__shift_4_2: ; @test_uint32_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_3 ; -- Begin function test_uint32_t__shift_4_3
.p2align 2
_test_uint32_t__shift_4_3: ; @test_uint32_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_4 ; -- Begin function test_uint32_t__shift_4_4
.p2align 2
_test_uint32_t__shift_4_4: ; @test_uint32_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_5 ; -- Begin function test_uint32_t__shift_4_5
.p2align 2
_test_uint32_t__shift_4_5: ; @test_uint32_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_6 ; -- Begin function test_uint32_t__shift_4_6
.p2align 2
_test_uint32_t__shift_4_6: ; @test_uint32_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_7 ; -- Begin function test_uint32_t__shift_4_7
.p2align 2
_test_uint32_t__shift_4_7: ; @test_uint32_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_8 ; -- Begin function test_uint32_t__shift_4_8
.p2align 2
_test_uint32_t__shift_4_8: ; @test_uint32_t__shift_4_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_9 ; -- Begin function test_uint32_t__shift_4_9
.p2align 2
_test_uint32_t__shift_4_9: ; @test_uint32_t__shift_4_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_10 ; -- Begin function test_uint32_t__shift_4_10
.p2align 2
_test_uint32_t__shift_4_10: ; @test_uint32_t__shift_4_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_4_11 ; -- Begin function test_uint32_t__shift_4_11
.p2align 2
_test_uint32_t__shift_4_11: ; @test_uint32_t__shift_4_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_0 ; -- Begin function test_uint32_t__shift_5_0
.p2align 2
_test_uint32_t__shift_5_0: ; @test_uint32_t__shift_5_0
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_1 ; -- Begin function test_uint32_t__shift_5_1
.p2align 2
_test_uint32_t__shift_5_1: ; @test_uint32_t__shift_5_1
.cfi_startproc
; %bb.0:
tst w0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_2 ; -- Begin function test_uint32_t__shift_5_2
.p2align 2
_test_uint32_t__shift_5_2: ; @test_uint32_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_3 ; -- Begin function test_uint32_t__shift_5_3
.p2align 2
_test_uint32_t__shift_5_3: ; @test_uint32_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_4 ; -- Begin function test_uint32_t__shift_5_4
.p2align 2
_test_uint32_t__shift_5_4: ; @test_uint32_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_5 ; -- Begin function test_uint32_t__shift_5_5
.p2align 2
_test_uint32_t__shift_5_5: ; @test_uint32_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_6 ; -- Begin function test_uint32_t__shift_5_6
.p2align 2
_test_uint32_t__shift_5_6: ; @test_uint32_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_7 ; -- Begin function test_uint32_t__shift_5_7
.p2align 2
_test_uint32_t__shift_5_7: ; @test_uint32_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_8 ; -- Begin function test_uint32_t__shift_5_8
.p2align 2
_test_uint32_t__shift_5_8: ; @test_uint32_t__shift_5_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_9 ; -- Begin function test_uint32_t__shift_5_9
.p2align 2
_test_uint32_t__shift_5_9: ; @test_uint32_t__shift_5_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_10 ; -- Begin function test_uint32_t__shift_5_10
.p2align 2
_test_uint32_t__shift_5_10: ; @test_uint32_t__shift_5_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_5_11 ; -- Begin function test_uint32_t__shift_5_11
.p2align 2
_test_uint32_t__shift_5_11: ; @test_uint32_t__shift_5_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_0 ; -- Begin function test_uint32_t__shift_6_0
.p2align 2
_test_uint32_t__shift_6_0: ; @test_uint32_t__shift_6_0
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_1 ; -- Begin function test_uint32_t__shift_6_1
.p2align 2
_test_uint32_t__shift_6_1: ; @test_uint32_t__shift_6_1
.cfi_startproc
; %bb.0:
tst w0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_2 ; -- Begin function test_uint32_t__shift_6_2
.p2align 2
_test_uint32_t__shift_6_2: ; @test_uint32_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_3 ; -- Begin function test_uint32_t__shift_6_3
.p2align 2
_test_uint32_t__shift_6_3: ; @test_uint32_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_4 ; -- Begin function test_uint32_t__shift_6_4
.p2align 2
_test_uint32_t__shift_6_4: ; @test_uint32_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_5 ; -- Begin function test_uint32_t__shift_6_5
.p2align 2
_test_uint32_t__shift_6_5: ; @test_uint32_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_6 ; -- Begin function test_uint32_t__shift_6_6
.p2align 2
_test_uint32_t__shift_6_6: ; @test_uint32_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_7 ; -- Begin function test_uint32_t__shift_6_7
.p2align 2
_test_uint32_t__shift_6_7: ; @test_uint32_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_8 ; -- Begin function test_uint32_t__shift_6_8
.p2align 2
_test_uint32_t__shift_6_8: ; @test_uint32_t__shift_6_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_9 ; -- Begin function test_uint32_t__shift_6_9
.p2align 2
_test_uint32_t__shift_6_9: ; @test_uint32_t__shift_6_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_10 ; -- Begin function test_uint32_t__shift_6_10
.p2align 2
_test_uint32_t__shift_6_10: ; @test_uint32_t__shift_6_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_6_11 ; -- Begin function test_uint32_t__shift_6_11
.p2align 2
_test_uint32_t__shift_6_11: ; @test_uint32_t__shift_6_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_0 ; -- Begin function test_uint32_t__shift_7_0
.p2align 2
_test_uint32_t__shift_7_0: ; @test_uint32_t__shift_7_0
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_1 ; -- Begin function test_uint32_t__shift_7_1
.p2align 2
_test_uint32_t__shift_7_1: ; @test_uint32_t__shift_7_1
.cfi_startproc
; %bb.0:
tst w0, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_2 ; -- Begin function test_uint32_t__shift_7_2
.p2align 2
_test_uint32_t__shift_7_2: ; @test_uint32_t__shift_7_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_3 ; -- Begin function test_uint32_t__shift_7_3
.p2align 2
_test_uint32_t__shift_7_3: ; @test_uint32_t__shift_7_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_4 ; -- Begin function test_uint32_t__shift_7_4
.p2align 2
_test_uint32_t__shift_7_4: ; @test_uint32_t__shift_7_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_5 ; -- Begin function test_uint32_t__shift_7_5
.p2align 2
_test_uint32_t__shift_7_5: ; @test_uint32_t__shift_7_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_6 ; -- Begin function test_uint32_t__shift_7_6
.p2align 2
_test_uint32_t__shift_7_6: ; @test_uint32_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_7 ; -- Begin function test_uint32_t__shift_7_7
.p2align 2
_test_uint32_t__shift_7_7: ; @test_uint32_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_8 ; -- Begin function test_uint32_t__shift_7_8
.p2align 2
_test_uint32_t__shift_7_8: ; @test_uint32_t__shift_7_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_9 ; -- Begin function test_uint32_t__shift_7_9
.p2align 2
_test_uint32_t__shift_7_9: ; @test_uint32_t__shift_7_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_10 ; -- Begin function test_uint32_t__shift_7_10
.p2align 2
_test_uint32_t__shift_7_10: ; @test_uint32_t__shift_7_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint32_t__shift_7_11 ; -- Begin function test_uint32_t__shift_7_11
.p2align 2
_test_uint32_t__shift_7_11: ; @test_uint32_t__shift_7_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_0 ; -- Begin function test_int64_t__shift_0_0
.p2align 2
_test_int64_t__shift_0_0: ; @test_int64_t__shift_0_0
.cfi_startproc
; %bb.0:
tst x0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_1 ; -- Begin function test_int64_t__shift_0_1
.p2align 2
_test_int64_t__shift_0_1: ; @test_int64_t__shift_0_1
.cfi_startproc
; %bb.0:
tst x0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_2 ; -- Begin function test_int64_t__shift_0_2
.p2align 2
_test_int64_t__shift_0_2: ; @test_int64_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_3 ; -- Begin function test_int64_t__shift_0_3
.p2align 2
_test_int64_t__shift_0_3: ; @test_int64_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_4 ; -- Begin function test_int64_t__shift_0_4
.p2align 2
_test_int64_t__shift_0_4: ; @test_int64_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_5 ; -- Begin function test_int64_t__shift_0_5
.p2align 2
_test_int64_t__shift_0_5: ; @test_int64_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_6 ; -- Begin function test_int64_t__shift_0_6
.p2align 2
_test_int64_t__shift_0_6: ; @test_int64_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_7 ; -- Begin function test_int64_t__shift_0_7
.p2align 2
_test_int64_t__shift_0_7: ; @test_int64_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_8 ; -- Begin function test_int64_t__shift_0_8
.p2align 2
_test_int64_t__shift_0_8: ; @test_int64_t__shift_0_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_9 ; -- Begin function test_int64_t__shift_0_9
.p2align 2
_test_int64_t__shift_0_9: ; @test_int64_t__shift_0_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_10 ; -- Begin function test_int64_t__shift_0_10
.p2align 2
_test_int64_t__shift_0_10: ; @test_int64_t__shift_0_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_0_11 ; -- Begin function test_int64_t__shift_0_11
.p2align 2
_test_int64_t__shift_0_11: ; @test_int64_t__shift_0_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_0 ; -- Begin function test_int64_t__shift_1_0
.p2align 2
_test_int64_t__shift_1_0: ; @test_int64_t__shift_1_0
.cfi_startproc
; %bb.0:
tst x0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_1 ; -- Begin function test_int64_t__shift_1_1
.p2align 2
_test_int64_t__shift_1_1: ; @test_int64_t__shift_1_1
.cfi_startproc
; %bb.0:
tst x0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_2 ; -- Begin function test_int64_t__shift_1_2
.p2align 2
_test_int64_t__shift_1_2: ; @test_int64_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_3 ; -- Begin function test_int64_t__shift_1_3
.p2align 2
_test_int64_t__shift_1_3: ; @test_int64_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_4 ; -- Begin function test_int64_t__shift_1_4
.p2align 2
_test_int64_t__shift_1_4: ; @test_int64_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_5 ; -- Begin function test_int64_t__shift_1_5
.p2align 2
_test_int64_t__shift_1_5: ; @test_int64_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_6 ; -- Begin function test_int64_t__shift_1_6
.p2align 2
_test_int64_t__shift_1_6: ; @test_int64_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_7 ; -- Begin function test_int64_t__shift_1_7
.p2align 2
_test_int64_t__shift_1_7: ; @test_int64_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_8 ; -- Begin function test_int64_t__shift_1_8
.p2align 2
_test_int64_t__shift_1_8: ; @test_int64_t__shift_1_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_9 ; -- Begin function test_int64_t__shift_1_9
.p2align 2
_test_int64_t__shift_1_9: ; @test_int64_t__shift_1_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_10 ; -- Begin function test_int64_t__shift_1_10
.p2align 2
_test_int64_t__shift_1_10: ; @test_int64_t__shift_1_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_1_11 ; -- Begin function test_int64_t__shift_1_11
.p2align 2
_test_int64_t__shift_1_11: ; @test_int64_t__shift_1_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_0 ; -- Begin function test_int64_t__shift_2_0
.p2align 2
_test_int64_t__shift_2_0: ; @test_int64_t__shift_2_0
.cfi_startproc
; %bb.0:
tst x0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_1 ; -- Begin function test_int64_t__shift_2_1
.p2align 2
_test_int64_t__shift_2_1: ; @test_int64_t__shift_2_1
.cfi_startproc
; %bb.0:
tst x0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_2 ; -- Begin function test_int64_t__shift_2_2
.p2align 2
_test_int64_t__shift_2_2: ; @test_int64_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_3 ; -- Begin function test_int64_t__shift_2_3
.p2align 2
_test_int64_t__shift_2_3: ; @test_int64_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_4 ; -- Begin function test_int64_t__shift_2_4
.p2align 2
_test_int64_t__shift_2_4: ; @test_int64_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_5 ; -- Begin function test_int64_t__shift_2_5
.p2align 2
_test_int64_t__shift_2_5: ; @test_int64_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_6 ; -- Begin function test_int64_t__shift_2_6
.p2align 2
_test_int64_t__shift_2_6: ; @test_int64_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_7 ; -- Begin function test_int64_t__shift_2_7
.p2align 2
_test_int64_t__shift_2_7: ; @test_int64_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_8 ; -- Begin function test_int64_t__shift_2_8
.p2align 2
_test_int64_t__shift_2_8: ; @test_int64_t__shift_2_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_9 ; -- Begin function test_int64_t__shift_2_9
.p2align 2
_test_int64_t__shift_2_9: ; @test_int64_t__shift_2_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_10 ; -- Begin function test_int64_t__shift_2_10
.p2align 2
_test_int64_t__shift_2_10: ; @test_int64_t__shift_2_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_2_11 ; -- Begin function test_int64_t__shift_2_11
.p2align 2
_test_int64_t__shift_2_11: ; @test_int64_t__shift_2_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_0 ; -- Begin function test_int64_t__shift_3_0
.p2align 2
_test_int64_t__shift_3_0: ; @test_int64_t__shift_3_0
.cfi_startproc
; %bb.0:
tst x0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_1 ; -- Begin function test_int64_t__shift_3_1
.p2align 2
_test_int64_t__shift_3_1: ; @test_int64_t__shift_3_1
.cfi_startproc
; %bb.0:
tst x0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_2 ; -- Begin function test_int64_t__shift_3_2
.p2align 2
_test_int64_t__shift_3_2: ; @test_int64_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_3 ; -- Begin function test_int64_t__shift_3_3
.p2align 2
_test_int64_t__shift_3_3: ; @test_int64_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_4 ; -- Begin function test_int64_t__shift_3_4
.p2align 2
_test_int64_t__shift_3_4: ; @test_int64_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_5 ; -- Begin function test_int64_t__shift_3_5
.p2align 2
_test_int64_t__shift_3_5: ; @test_int64_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_6 ; -- Begin function test_int64_t__shift_3_6
.p2align 2
_test_int64_t__shift_3_6: ; @test_int64_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_7 ; -- Begin function test_int64_t__shift_3_7
.p2align 2
_test_int64_t__shift_3_7: ; @test_int64_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_8 ; -- Begin function test_int64_t__shift_3_8
.p2align 2
_test_int64_t__shift_3_8: ; @test_int64_t__shift_3_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_9 ; -- Begin function test_int64_t__shift_3_9
.p2align 2
_test_int64_t__shift_3_9: ; @test_int64_t__shift_3_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_10 ; -- Begin function test_int64_t__shift_3_10
.p2align 2
_test_int64_t__shift_3_10: ; @test_int64_t__shift_3_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_3_11 ; -- Begin function test_int64_t__shift_3_11
.p2align 2
_test_int64_t__shift_3_11: ; @test_int64_t__shift_3_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_0 ; -- Begin function test_int64_t__shift_4_0
.p2align 2
_test_int64_t__shift_4_0: ; @test_int64_t__shift_4_0
.cfi_startproc
; %bb.0:
tst x0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_1 ; -- Begin function test_int64_t__shift_4_1
.p2align 2
_test_int64_t__shift_4_1: ; @test_int64_t__shift_4_1
.cfi_startproc
; %bb.0:
tst x0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_2 ; -- Begin function test_int64_t__shift_4_2
.p2align 2
_test_int64_t__shift_4_2: ; @test_int64_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_3 ; -- Begin function test_int64_t__shift_4_3
.p2align 2
_test_int64_t__shift_4_3: ; @test_int64_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_4 ; -- Begin function test_int64_t__shift_4_4
.p2align 2
_test_int64_t__shift_4_4: ; @test_int64_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_5 ; -- Begin function test_int64_t__shift_4_5
.p2align 2
_test_int64_t__shift_4_5: ; @test_int64_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_6 ; -- Begin function test_int64_t__shift_4_6
.p2align 2
_test_int64_t__shift_4_6: ; @test_int64_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_7 ; -- Begin function test_int64_t__shift_4_7
.p2align 2
_test_int64_t__shift_4_7: ; @test_int64_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_8 ; -- Begin function test_int64_t__shift_4_8
.p2align 2
_test_int64_t__shift_4_8: ; @test_int64_t__shift_4_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_9 ; -- Begin function test_int64_t__shift_4_9
.p2align 2
_test_int64_t__shift_4_9: ; @test_int64_t__shift_4_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_10 ; -- Begin function test_int64_t__shift_4_10
.p2align 2
_test_int64_t__shift_4_10: ; @test_int64_t__shift_4_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_4_11 ; -- Begin function test_int64_t__shift_4_11
.p2align 2
_test_int64_t__shift_4_11: ; @test_int64_t__shift_4_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_0 ; -- Begin function test_int64_t__shift_5_0
.p2align 2
_test_int64_t__shift_5_0: ; @test_int64_t__shift_5_0
.cfi_startproc
; %bb.0:
tst x0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_1 ; -- Begin function test_int64_t__shift_5_1
.p2align 2
_test_int64_t__shift_5_1: ; @test_int64_t__shift_5_1
.cfi_startproc
; %bb.0:
tst x0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_2 ; -- Begin function test_int64_t__shift_5_2
.p2align 2
_test_int64_t__shift_5_2: ; @test_int64_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_3 ; -- Begin function test_int64_t__shift_5_3
.p2align 2
_test_int64_t__shift_5_3: ; @test_int64_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_4 ; -- Begin function test_int64_t__shift_5_4
.p2align 2
_test_int64_t__shift_5_4: ; @test_int64_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_5 ; -- Begin function test_int64_t__shift_5_5
.p2align 2
_test_int64_t__shift_5_5: ; @test_int64_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_6 ; -- Begin function test_int64_t__shift_5_6
.p2align 2
_test_int64_t__shift_5_6: ; @test_int64_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_7 ; -- Begin function test_int64_t__shift_5_7
.p2align 2
_test_int64_t__shift_5_7: ; @test_int64_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_8 ; -- Begin function test_int64_t__shift_5_8
.p2align 2
_test_int64_t__shift_5_8: ; @test_int64_t__shift_5_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_9 ; -- Begin function test_int64_t__shift_5_9
.p2align 2
_test_int64_t__shift_5_9: ; @test_int64_t__shift_5_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_10 ; -- Begin function test_int64_t__shift_5_10
.p2align 2
_test_int64_t__shift_5_10: ; @test_int64_t__shift_5_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_5_11 ; -- Begin function test_int64_t__shift_5_11
.p2align 2
_test_int64_t__shift_5_11: ; @test_int64_t__shift_5_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_0 ; -- Begin function test_int64_t__shift_6_0
.p2align 2
_test_int64_t__shift_6_0: ; @test_int64_t__shift_6_0
.cfi_startproc
; %bb.0:
tst x0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_1 ; -- Begin function test_int64_t__shift_6_1
.p2align 2
_test_int64_t__shift_6_1: ; @test_int64_t__shift_6_1
.cfi_startproc
; %bb.0:
tst x0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_2 ; -- Begin function test_int64_t__shift_6_2
.p2align 2
_test_int64_t__shift_6_2: ; @test_int64_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_3 ; -- Begin function test_int64_t__shift_6_3
.p2align 2
_test_int64_t__shift_6_3: ; @test_int64_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_4 ; -- Begin function test_int64_t__shift_6_4
.p2align 2
_test_int64_t__shift_6_4: ; @test_int64_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_5 ; -- Begin function test_int64_t__shift_6_5
.p2align 2
_test_int64_t__shift_6_5: ; @test_int64_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_6 ; -- Begin function test_int64_t__shift_6_6
.p2align 2
_test_int64_t__shift_6_6: ; @test_int64_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_7 ; -- Begin function test_int64_t__shift_6_7
.p2align 2
_test_int64_t__shift_6_7: ; @test_int64_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_8 ; -- Begin function test_int64_t__shift_6_8
.p2align 2
_test_int64_t__shift_6_8: ; @test_int64_t__shift_6_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_9 ; -- Begin function test_int64_t__shift_6_9
.p2align 2
_test_int64_t__shift_6_9: ; @test_int64_t__shift_6_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_10 ; -- Begin function test_int64_t__shift_6_10
.p2align 2
_test_int64_t__shift_6_10: ; @test_int64_t__shift_6_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_6_11 ; -- Begin function test_int64_t__shift_6_11
.p2align 2
_test_int64_t__shift_6_11: ; @test_int64_t__shift_6_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_0 ; -- Begin function test_int64_t__shift_7_0
.p2align 2
_test_int64_t__shift_7_0: ; @test_int64_t__shift_7_0
.cfi_startproc
; %bb.0:
tst x0, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_1 ; -- Begin function test_int64_t__shift_7_1
.p2align 2
_test_int64_t__shift_7_1: ; @test_int64_t__shift_7_1
.cfi_startproc
; %bb.0:
tst x0, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_2 ; -- Begin function test_int64_t__shift_7_2
.p2align 2
_test_int64_t__shift_7_2: ; @test_int64_t__shift_7_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_3 ; -- Begin function test_int64_t__shift_7_3
.p2align 2
_test_int64_t__shift_7_3: ; @test_int64_t__shift_7_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_4 ; -- Begin function test_int64_t__shift_7_4
.p2align 2
_test_int64_t__shift_7_4: ; @test_int64_t__shift_7_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_5 ; -- Begin function test_int64_t__shift_7_5
.p2align 2
_test_int64_t__shift_7_5: ; @test_int64_t__shift_7_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_6 ; -- Begin function test_int64_t__shift_7_6
.p2align 2
_test_int64_t__shift_7_6: ; @test_int64_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_7 ; -- Begin function test_int64_t__shift_7_7
.p2align 2
_test_int64_t__shift_7_7: ; @test_int64_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_8 ; -- Begin function test_int64_t__shift_7_8
.p2align 2
_test_int64_t__shift_7_8: ; @test_int64_t__shift_7_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_9 ; -- Begin function test_int64_t__shift_7_9
.p2align 2
_test_int64_t__shift_7_9: ; @test_int64_t__shift_7_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_10 ; -- Begin function test_int64_t__shift_7_10
.p2align 2
_test_int64_t__shift_7_10: ; @test_int64_t__shift_7_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_int64_t__shift_7_11 ; -- Begin function test_int64_t__shift_7_11
.p2align 2
_test_int64_t__shift_7_11: ; @test_int64_t__shift_7_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_0 ; -- Begin function test_uint64_t__shift_0_0
.p2align 2
_test_uint64_t__shift_0_0: ; @test_uint64_t__shift_0_0
.cfi_startproc
; %bb.0:
tst x0, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_1 ; -- Begin function test_uint64_t__shift_0_1
.p2align 2
_test_uint64_t__shift_0_1: ; @test_uint64_t__shift_0_1
.cfi_startproc
; %bb.0:
tst x0, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_2 ; -- Begin function test_uint64_t__shift_0_2
.p2align 2
_test_uint64_t__shift_0_2: ; @test_uint64_t__shift_0_2
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_3 ; -- Begin function test_uint64_t__shift_0_3
.p2align 2
_test_uint64_t__shift_0_3: ; @test_uint64_t__shift_0_3
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_4 ; -- Begin function test_uint64_t__shift_0_4
.p2align 2
_test_uint64_t__shift_0_4: ; @test_uint64_t__shift_0_4
.cfi_startproc
; %bb.0:
mvn w8, w0
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_5 ; -- Begin function test_uint64_t__shift_0_5
.p2align 2
_test_uint64_t__shift_0_5: ; @test_uint64_t__shift_0_5
.cfi_startproc
; %bb.0:
and w0, w0, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_6 ; -- Begin function test_uint64_t__shift_0_6
.p2align 2
_test_uint64_t__shift_0_6: ; @test_uint64_t__shift_0_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_7 ; -- Begin function test_uint64_t__shift_0_7
.p2align 2
_test_uint64_t__shift_0_7: ; @test_uint64_t__shift_0_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x1
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_8 ; -- Begin function test_uint64_t__shift_0_8
.p2align 2
_test_uint64_t__shift_0_8: ; @test_uint64_t__shift_0_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_9 ; -- Begin function test_uint64_t__shift_0_9
.p2align 2
_test_uint64_t__shift_0_9: ; @test_uint64_t__shift_0_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_10 ; -- Begin function test_uint64_t__shift_0_10
.p2align 2
_test_uint64_t__shift_0_10: ; @test_uint64_t__shift_0_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mvn w8, w8
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_0_11 ; -- Begin function test_uint64_t__shift_0_11
.p2align 2
_test_uint64_t__shift_0_11: ; @test_uint64_t__shift_0_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
and w0, w8, #0x1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_0 ; -- Begin function test_uint64_t__shift_1_0
.p2align 2
_test_uint64_t__shift_1_0: ; @test_uint64_t__shift_1_0
.cfi_startproc
; %bb.0:
tst x0, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_1 ; -- Begin function test_uint64_t__shift_1_1
.p2align 2
_test_uint64_t__shift_1_1: ; @test_uint64_t__shift_1_1
.cfi_startproc
; %bb.0:
tst x0, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_2 ; -- Begin function test_uint64_t__shift_1_2
.p2align 2
_test_uint64_t__shift_1_2: ; @test_uint64_t__shift_1_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_3 ; -- Begin function test_uint64_t__shift_1_3
.p2align 2
_test_uint64_t__shift_1_3: ; @test_uint64_t__shift_1_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_4 ; -- Begin function test_uint64_t__shift_1_4
.p2align 2
_test_uint64_t__shift_1_4: ; @test_uint64_t__shift_1_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_5 ; -- Begin function test_uint64_t__shift_1_5
.p2align 2
_test_uint64_t__shift_1_5: ; @test_uint64_t__shift_1_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_6 ; -- Begin function test_uint64_t__shift_1_6
.p2align 2
_test_uint64_t__shift_1_6: ; @test_uint64_t__shift_1_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_7 ; -- Begin function test_uint64_t__shift_1_7
.p2align 2
_test_uint64_t__shift_1_7: ; @test_uint64_t__shift_1_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x2
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_8 ; -- Begin function test_uint64_t__shift_1_8
.p2align 2
_test_uint64_t__shift_1_8: ; @test_uint64_t__shift_1_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_9 ; -- Begin function test_uint64_t__shift_1_9
.p2align 2
_test_uint64_t__shift_1_9: ; @test_uint64_t__shift_1_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_10 ; -- Begin function test_uint64_t__shift_1_10
.p2align 2
_test_uint64_t__shift_1_10: ; @test_uint64_t__shift_1_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_1_11 ; -- Begin function test_uint64_t__shift_1_11
.p2align 2
_test_uint64_t__shift_1_11: ; @test_uint64_t__shift_1_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #1, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_0 ; -- Begin function test_uint64_t__shift_2_0
.p2align 2
_test_uint64_t__shift_2_0: ; @test_uint64_t__shift_2_0
.cfi_startproc
; %bb.0:
tst x0, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_1 ; -- Begin function test_uint64_t__shift_2_1
.p2align 2
_test_uint64_t__shift_2_1: ; @test_uint64_t__shift_2_1
.cfi_startproc
; %bb.0:
tst x0, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_2 ; -- Begin function test_uint64_t__shift_2_2
.p2align 2
_test_uint64_t__shift_2_2: ; @test_uint64_t__shift_2_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_3 ; -- Begin function test_uint64_t__shift_2_3
.p2align 2
_test_uint64_t__shift_2_3: ; @test_uint64_t__shift_2_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_4 ; -- Begin function test_uint64_t__shift_2_4
.p2align 2
_test_uint64_t__shift_2_4: ; @test_uint64_t__shift_2_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_5 ; -- Begin function test_uint64_t__shift_2_5
.p2align 2
_test_uint64_t__shift_2_5: ; @test_uint64_t__shift_2_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_6 ; -- Begin function test_uint64_t__shift_2_6
.p2align 2
_test_uint64_t__shift_2_6: ; @test_uint64_t__shift_2_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_7 ; -- Begin function test_uint64_t__shift_2_7
.p2align 2
_test_uint64_t__shift_2_7: ; @test_uint64_t__shift_2_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x4
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_8 ; -- Begin function test_uint64_t__shift_2_8
.p2align 2
_test_uint64_t__shift_2_8: ; @test_uint64_t__shift_2_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_9 ; -- Begin function test_uint64_t__shift_2_9
.p2align 2
_test_uint64_t__shift_2_9: ; @test_uint64_t__shift_2_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_10 ; -- Begin function test_uint64_t__shift_2_10
.p2align 2
_test_uint64_t__shift_2_10: ; @test_uint64_t__shift_2_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #2
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_2_11 ; -- Begin function test_uint64_t__shift_2_11
.p2align 2
_test_uint64_t__shift_2_11: ; @test_uint64_t__shift_2_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #2, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_0 ; -- Begin function test_uint64_t__shift_3_0
.p2align 2
_test_uint64_t__shift_3_0: ; @test_uint64_t__shift_3_0
.cfi_startproc
; %bb.0:
tst x0, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_1 ; -- Begin function test_uint64_t__shift_3_1
.p2align 2
_test_uint64_t__shift_3_1: ; @test_uint64_t__shift_3_1
.cfi_startproc
; %bb.0:
tst x0, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_2 ; -- Begin function test_uint64_t__shift_3_2
.p2align 2
_test_uint64_t__shift_3_2: ; @test_uint64_t__shift_3_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_3 ; -- Begin function test_uint64_t__shift_3_3
.p2align 2
_test_uint64_t__shift_3_3: ; @test_uint64_t__shift_3_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_4 ; -- Begin function test_uint64_t__shift_3_4
.p2align 2
_test_uint64_t__shift_3_4: ; @test_uint64_t__shift_3_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_5 ; -- Begin function test_uint64_t__shift_3_5
.p2align 2
_test_uint64_t__shift_3_5: ; @test_uint64_t__shift_3_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_6 ; -- Begin function test_uint64_t__shift_3_6
.p2align 2
_test_uint64_t__shift_3_6: ; @test_uint64_t__shift_3_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_7 ; -- Begin function test_uint64_t__shift_3_7
.p2align 2
_test_uint64_t__shift_3_7: ; @test_uint64_t__shift_3_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x8
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_8 ; -- Begin function test_uint64_t__shift_3_8
.p2align 2
_test_uint64_t__shift_3_8: ; @test_uint64_t__shift_3_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_9 ; -- Begin function test_uint64_t__shift_3_9
.p2align 2
_test_uint64_t__shift_3_9: ; @test_uint64_t__shift_3_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_10 ; -- Begin function test_uint64_t__shift_3_10
.p2align 2
_test_uint64_t__shift_3_10: ; @test_uint64_t__shift_3_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #3
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_3_11 ; -- Begin function test_uint64_t__shift_3_11
.p2align 2
_test_uint64_t__shift_3_11: ; @test_uint64_t__shift_3_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #3, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_0 ; -- Begin function test_uint64_t__shift_4_0
.p2align 2
_test_uint64_t__shift_4_0: ; @test_uint64_t__shift_4_0
.cfi_startproc
; %bb.0:
tst x0, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_1 ; -- Begin function test_uint64_t__shift_4_1
.p2align 2
_test_uint64_t__shift_4_1: ; @test_uint64_t__shift_4_1
.cfi_startproc
; %bb.0:
tst x0, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_2 ; -- Begin function test_uint64_t__shift_4_2
.p2align 2
_test_uint64_t__shift_4_2: ; @test_uint64_t__shift_4_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_3 ; -- Begin function test_uint64_t__shift_4_3
.p2align 2
_test_uint64_t__shift_4_3: ; @test_uint64_t__shift_4_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_4 ; -- Begin function test_uint64_t__shift_4_4
.p2align 2
_test_uint64_t__shift_4_4: ; @test_uint64_t__shift_4_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_5 ; -- Begin function test_uint64_t__shift_4_5
.p2align 2
_test_uint64_t__shift_4_5: ; @test_uint64_t__shift_4_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_6 ; -- Begin function test_uint64_t__shift_4_6
.p2align 2
_test_uint64_t__shift_4_6: ; @test_uint64_t__shift_4_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_7 ; -- Begin function test_uint64_t__shift_4_7
.p2align 2
_test_uint64_t__shift_4_7: ; @test_uint64_t__shift_4_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x10
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_8 ; -- Begin function test_uint64_t__shift_4_8
.p2align 2
_test_uint64_t__shift_4_8: ; @test_uint64_t__shift_4_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_9 ; -- Begin function test_uint64_t__shift_4_9
.p2align 2
_test_uint64_t__shift_4_9: ; @test_uint64_t__shift_4_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_10 ; -- Begin function test_uint64_t__shift_4_10
.p2align 2
_test_uint64_t__shift_4_10: ; @test_uint64_t__shift_4_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #4
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_4_11 ; -- Begin function test_uint64_t__shift_4_11
.p2align 2
_test_uint64_t__shift_4_11: ; @test_uint64_t__shift_4_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #4, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_0 ; -- Begin function test_uint64_t__shift_5_0
.p2align 2
_test_uint64_t__shift_5_0: ; @test_uint64_t__shift_5_0
.cfi_startproc
; %bb.0:
tst x0, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_1 ; -- Begin function test_uint64_t__shift_5_1
.p2align 2
_test_uint64_t__shift_5_1: ; @test_uint64_t__shift_5_1
.cfi_startproc
; %bb.0:
tst x0, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_2 ; -- Begin function test_uint64_t__shift_5_2
.p2align 2
_test_uint64_t__shift_5_2: ; @test_uint64_t__shift_5_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_3 ; -- Begin function test_uint64_t__shift_5_3
.p2align 2
_test_uint64_t__shift_5_3: ; @test_uint64_t__shift_5_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_4 ; -- Begin function test_uint64_t__shift_5_4
.p2align 2
_test_uint64_t__shift_5_4: ; @test_uint64_t__shift_5_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_5 ; -- Begin function test_uint64_t__shift_5_5
.p2align 2
_test_uint64_t__shift_5_5: ; @test_uint64_t__shift_5_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_6 ; -- Begin function test_uint64_t__shift_5_6
.p2align 2
_test_uint64_t__shift_5_6: ; @test_uint64_t__shift_5_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_7 ; -- Begin function test_uint64_t__shift_5_7
.p2align 2
_test_uint64_t__shift_5_7: ; @test_uint64_t__shift_5_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x20
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_8 ; -- Begin function test_uint64_t__shift_5_8
.p2align 2
_test_uint64_t__shift_5_8: ; @test_uint64_t__shift_5_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_9 ; -- Begin function test_uint64_t__shift_5_9
.p2align 2
_test_uint64_t__shift_5_9: ; @test_uint64_t__shift_5_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_10 ; -- Begin function test_uint64_t__shift_5_10
.p2align 2
_test_uint64_t__shift_5_10: ; @test_uint64_t__shift_5_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #5
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_5_11 ; -- Begin function test_uint64_t__shift_5_11
.p2align 2
_test_uint64_t__shift_5_11: ; @test_uint64_t__shift_5_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #5, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_0 ; -- Begin function test_uint64_t__shift_6_0
.p2align 2
_test_uint64_t__shift_6_0: ; @test_uint64_t__shift_6_0
.cfi_startproc
; %bb.0:
tst x0, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_1 ; -- Begin function test_uint64_t__shift_6_1
.p2align 2
_test_uint64_t__shift_6_1: ; @test_uint64_t__shift_6_1
.cfi_startproc
; %bb.0:
tst x0, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_2 ; -- Begin function test_uint64_t__shift_6_2
.p2align 2
_test_uint64_t__shift_6_2: ; @test_uint64_t__shift_6_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_3 ; -- Begin function test_uint64_t__shift_6_3
.p2align 2
_test_uint64_t__shift_6_3: ; @test_uint64_t__shift_6_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_4 ; -- Begin function test_uint64_t__shift_6_4
.p2align 2
_test_uint64_t__shift_6_4: ; @test_uint64_t__shift_6_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_5 ; -- Begin function test_uint64_t__shift_6_5
.p2align 2
_test_uint64_t__shift_6_5: ; @test_uint64_t__shift_6_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_6 ; -- Begin function test_uint64_t__shift_6_6
.p2align 2
_test_uint64_t__shift_6_6: ; @test_uint64_t__shift_6_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_7 ; -- Begin function test_uint64_t__shift_6_7
.p2align 2
_test_uint64_t__shift_6_7: ; @test_uint64_t__shift_6_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x40
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_8 ; -- Begin function test_uint64_t__shift_6_8
.p2align 2
_test_uint64_t__shift_6_8: ; @test_uint64_t__shift_6_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_9 ; -- Begin function test_uint64_t__shift_6_9
.p2align 2
_test_uint64_t__shift_6_9: ; @test_uint64_t__shift_6_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_10 ; -- Begin function test_uint64_t__shift_6_10
.p2align 2
_test_uint64_t__shift_6_10: ; @test_uint64_t__shift_6_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #6
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_6_11 ; -- Begin function test_uint64_t__shift_6_11
.p2align 2
_test_uint64_t__shift_6_11: ; @test_uint64_t__shift_6_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #6, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_0 ; -- Begin function test_uint64_t__shift_7_0
.p2align 2
_test_uint64_t__shift_7_0: ; @test_uint64_t__shift_7_0
.cfi_startproc
; %bb.0:
tst x0, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_1 ; -- Begin function test_uint64_t__shift_7_1
.p2align 2
_test_uint64_t__shift_7_1: ; @test_uint64_t__shift_7_1
.cfi_startproc
; %bb.0:
tst x0, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_2 ; -- Begin function test_uint64_t__shift_7_2
.p2align 2
_test_uint64_t__shift_7_2: ; @test_uint64_t__shift_7_2
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_3 ; -- Begin function test_uint64_t__shift_7_3
.p2align 2
_test_uint64_t__shift_7_3: ; @test_uint64_t__shift_7_3
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_4 ; -- Begin function test_uint64_t__shift_7_4
.p2align 2
_test_uint64_t__shift_7_4: ; @test_uint64_t__shift_7_4
.cfi_startproc
; %bb.0:
mov w8, #1
bic w0, w8, w0, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_5 ; -- Begin function test_uint64_t__shift_7_5
.p2align 2
_test_uint64_t__shift_7_5: ; @test_uint64_t__shift_7_5
.cfi_startproc
; %bb.0:
ubfx w0, w0, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_6 ; -- Begin function test_uint64_t__shift_7_6
.p2align 2
_test_uint64_t__shift_7_6: ; @test_uint64_t__shift_7_6
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-10
mov w9, #-40
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_7 ; -- Begin function test_uint64_t__shift_7_7
.p2align 2
_test_uint64_t__shift_7_7: ; @test_uint64_t__shift_7_7
.cfi_startproc
; %bb.0:
ldrb w8, [x0]
tst w8, #0x80
mov w8, #-40
mov w9, #-10
csel w0, w9, w8, eq
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_8 ; -- Begin function test_uint64_t__shift_7_8
.p2align 2
_test_uint64_t__shift_7_8: ; @test_uint64_t__shift_7_8
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_9 ; -- Begin function test_uint64_t__shift_7_9
.p2align 2
_test_uint64_t__shift_7_9: ; @test_uint64_t__shift_7_9
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_10 ; -- Begin function test_uint64_t__shift_7_10
.p2align 2
_test_uint64_t__shift_7_10: ; @test_uint64_t__shift_7_10
.cfi_startproc
; %bb.0:
ldr w8, [x0]
mov w9, #1
bic w0, w9, w8, lsr #7
ret
.cfi_endproc
; -- End function
.globl _test_uint64_t__shift_7_11 ; -- Begin function test_uint64_t__shift_7_11
.p2align 2
_test_uint64_t__shift_7_11: ; @test_uint64_t__shift_7_11
.cfi_startproc
; %bb.0:
ldr w8, [x0]
ubfx w0, w8, #7, #1
ret
.cfi_endproc
; -- End function
.subsections_via_symbols
| the_stack_data/64200931.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _yywrap ## -- Begin function yywrap
.p2align 4, 0x90
_yywrap: ## @yywrap
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl $1, %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _yywrap ; -- Begin function yywrap
.p2align 2
_yywrap: ; @yywrap
.cfi_startproc
; %bb.0:
mov w0, #1
ret
.cfi_endproc
; -- End function
.subsections_via_symbols
| AnghaBench/Quake-III-Arena/lcc/tst/extr_yacc.c_yywrap.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _monitorSaveAcctLog ## -- Begin function monitorSaveAcctLog
.p2align 4, 0x90
_monitorSaveAcctLog: ## @monitorSaveAcctLog
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $1080, %rsp ## imm = 0x438
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
## kill: def $r9d killed $r9d def $r9
movq %r9, -1080(%rbp) ## 8-byte Spill
## kill: def $r8d killed $r8d def $r8
movq %r8, -1088(%rbp) ## 8-byte Spill
## kill: def $ecx killed $ecx def $rcx
movq %rcx, -1096(%rbp) ## 8-byte Spill
## kill: def $edx killed $edx def $rdx
movq %rdx, -1104(%rbp) ## 8-byte Spill
## kill: def $esi killed $esi def $rsi
movq %rsi, -1112(%rbp) ## 8-byte Spill
movq %rdi, %r15
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -48(%rbp)
movl 120(%rbp), %r12d
movl 128(%rbp), %ebx
movl 136(%rbp), %r13d
leaq -1072(%rbp), %r14
movl $1024, %esi ## imm = 0x400
movq %r14, %rdi
callq ___bzero
movq _tsMonitorDbName@GOTPCREL(%rip), %rax
movq (%rax), %rdx
subq $8, %rsp
leaq L_.str(%rip), %rsi
movq %r14, %rdi
movq %r15, %rcx
movq %rdx, %r8
movq %r15, %r9
pushq %r13
pushq %rbx
pushq %r12
movl 112(%rbp), %eax
pushq %rax
movl 104(%rbp), %eax
pushq %rax
movl 96(%rbp), %eax
pushq %rax
movl 88(%rbp), %eax
pushq %rax
movl 80(%rbp), %eax
pushq %rax
movl 72(%rbp), %eax
pushq %rax
movl 64(%rbp), %eax
pushq %rax
movl 56(%rbp), %eax
pushq %rax
movl 48(%rbp), %eax
pushq %rax
movl 40(%rbp), %eax
pushq %rax
movl 32(%rbp), %eax
pushq %rax
movl 24(%rbp), %eax
pushq %rax
movl 16(%rbp), %eax
pushq %rax
pushq -1080(%rbp) ## 8-byte Folded Reload
pushq -1088(%rbp) ## 8-byte Folded Reload
pushq -1096(%rbp) ## 8-byte Folded Reload
pushq -1104(%rbp) ## 8-byte Folded Reload
pushq -1112(%rbp) ## 8-byte Folded Reload
callq _sprintf
addq $176, %rsp
movq _monitor@GOTPCREL(%rip), %rbx
movq (%rbx), %rax
movl (%rax), %esi
leaq L_.str.1(%rip), %rdi
movq %r14, %rdx
callq _monitorTrace
movq (%rbx), %rax
movl (%rax), %edi
movq _dnodeMontiorInsertAcctCallback@GOTPCREL(%rip), %rax
movl (%rax), %edx
leaq L_.str.2(%rip), %rcx
movq %r14, %rsi
callq _taos_query_a
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -48(%rbp), %rax
jne LBB0_2
## %bb.1:
addq $1080, %rsp ## imm = 0x438
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB0_2:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "insert into %s.acct_%s using %s.acct tags('%s') values(now, %ld, %ld , %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %d)"
.comm _tsMonitorDbName,8,3 ## @tsMonitorDbName
L_.str.1: ## @.str.1
.asciz "monitor:%p, save account info, sql %s"
.comm _monitor,8,3 ## @monitor
.comm _dnodeMontiorInsertAcctCallback,4,2 ## @dnodeMontiorInsertAcctCallback
L_.str.2: ## @.str.2
.asciz "account"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _monitorSaveAcctLog ; -- Begin function monitorSaveAcctLog
.p2align 2
_monitorSaveAcctLog: ; @monitorSaveAcctLog
.cfi_startproc
; %bb.0:
stp x28, x27, [sp, #-96]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 96
stp x26, x25, [sp, #16] ; 16-byte Folded Spill
stp x24, x23, [sp, #32] ; 16-byte Folded Spill
stp x22, x21, [sp, #48] ; 16-byte Folded Spill
stp x20, x19, [sp, #64] ; 16-byte Folded Spill
stp x29, x30, [sp, #80] ; 16-byte Folded Spill
add x29, sp, #80
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
.cfi_offset w27, -88
.cfi_offset w28, -96
sub sp, sp, #1168
mov x19, x7
mov x20, x6
mov x21, x5
mov x22, x4
mov x23, x3
mov x24, x2
mov x25, x1
mov x26, x0
ldr q0, [x29, #16]
str q0, [sp, #112] ; 16-byte Folded Spill
ldr q0, [x29, #32]
str q0, [sp, #96] ; 16-byte Folded Spill
ldr q0, [x29, #48]
str q0, [sp, #80] ; 16-byte Folded Spill
ldp w27, w28, [x29, #64]
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
stur x8, [x29, #-96]
add x0, sp, #128
mov w1, #1024
bl _bzero
Lloh3:
adrp x8, _tsMonitorDbName@GOTPAGE
Lloh4:
ldr x8, [x8, _tsMonitorDbName@GOTPAGEOFF]
Lloh5:
ldr x2, [x8]
stp w27, w28, [sp, #68]
ldr q0, [sp, #80] ; 16-byte Folded Reload
stur q0, [sp, #52]
ldr q0, [sp, #96] ; 16-byte Folded Reload
stur q0, [sp, #36]
ldr q0, [sp, #112] ; 16-byte Folded Reload
stur q0, [sp, #20]
stp w20, w19, [sp, #12]
Lloh6:
adrp x1, l_.str@PAGE
Lloh7:
add x1, x1, l_.str@PAGEOFF
add x0, sp, #128
stp w22, w21, [sp, #4]
str w23, [sp]
mov x3, x26
mov x4, x2
mov x5, x26
mov x6, x25
mov x7, x24
bl _sprintf
Lloh8:
adrp x19, _monitor@GOTPAGE
Lloh9:
ldr x19, [x19, _monitor@GOTPAGEOFF]
ldr x8, [x19]
ldr w1, [x8]
Lloh10:
adrp x0, l_.str.1@PAGE
Lloh11:
add x0, x0, l_.str.1@PAGEOFF
add x2, sp, #128
bl _monitorTrace
ldr x8, [x19]
ldr w0, [x8]
Lloh12:
adrp x8, _dnodeMontiorInsertAcctCallback@GOTPAGE
Lloh13:
ldr x8, [x8, _dnodeMontiorInsertAcctCallback@GOTPAGEOFF]
Lloh14:
ldr w2, [x8]
Lloh15:
adrp x3, l_.str.2@PAGE
Lloh16:
add x3, x3, l_.str.2@PAGEOFF
add x1, sp, #128
bl _taos_query_a
ldur x8, [x29, #-96]
Lloh17:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh18:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh19:
ldr x9, [x9]
cmp x9, x8
b.ne LBB0_2
; %bb.1:
add sp, sp, #1168
ldp x29, x30, [sp, #80] ; 16-byte Folded Reload
ldp x20, x19, [sp, #64] ; 16-byte Folded Reload
ldp x22, x21, [sp, #48] ; 16-byte Folded Reload
ldp x24, x23, [sp, #32] ; 16-byte Folded Reload
ldp x26, x25, [sp, #16] ; 16-byte Folded Reload
ldp x28, x27, [sp], #96 ; 16-byte Folded Reload
ret
LBB0_2:
bl ___stack_chk_fail
.loh AdrpLdrGotLdr Lloh17, Lloh18, Lloh19
.loh AdrpAdd Lloh15, Lloh16
.loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14
.loh AdrpAdd Lloh10, Lloh11
.loh AdrpLdrGot Lloh8, Lloh9
.loh AdrpAdd Lloh6, Lloh7
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "insert into %s.acct_%s using %s.acct tags('%s') values(now, %ld, %ld , %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %ld, %d)"
.comm _tsMonitorDbName,8,3 ; @tsMonitorDbName
l_.str.1: ; @.str.1
.asciz "monitor:%p, save account info, sql %s"
.comm _monitor,8,3 ; @monitor
.comm _dnodeMontiorInsertAcctCallback,4,2 ; @dnodeMontiorInsertAcctCallback
l_.str.2: ; @.str.2
.asciz "account"
.subsections_via_symbols
| AnghaBench/TDengine/src/modules/monitor/src/extr_monitorSystem.c_monitorSaveAcctLog.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function nv50_display_destroy
_nv50_display_destroy: ## @nv50_display_destroy
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rdi, %r14
callq _nv50_disp
movq %rax, %rbx
leaq 8(%rax), %rdi
callq _nv50_core_del
movq (%rbx), %rdi
callq _nouveau_bo_unmap
movq (%rbx), %rdi
testq %rdi, %rdi
je LBB0_2
## %bb.1:
callq _nouveau_bo_unpin
LBB0_2:
xorl %edi, %edi
movq %rbx, %rsi
callq _nouveau_bo_ref
movq %r14, %rdi
callq _nouveau_display
movq $0, (%rax)
movq %rbx, %rdi
popq %rbx
popq %r14
popq %rbp
jmp _kfree ## TAILCALL
.cfi_endproc
## -- End function
.no_dead_strip _nv50_display_destroy
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function nv50_display_destroy
_nv50_display_destroy: ; @nv50_display_destroy
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x20, x0
bl _nv50_disp
mov x19, x0
add x0, x0, #8
bl _nv50_core_del
ldr x0, [x19]
bl _nouveau_bo_unmap
ldr x0, [x19]
cbz x0, LBB0_2
; %bb.1:
bl _nouveau_bo_unpin
LBB0_2:
mov x0, #0
mov x1, x19
bl _nouveau_bo_ref
mov x0, x20
bl _nouveau_display
str xzr, [x0]
mov x0, x19
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _kfree
.cfi_endproc
; -- End function
.no_dead_strip _nv50_display_destroy
.subsections_via_symbols
| AnghaBench/linux/drivers/gpu/drm/nouveau/dispnv50/extr_disp.c_nv50_display_destroy.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _lengthOfLastWord ## -- Begin function lengthOfLastWord
.p2align 4, 0x90
_lengthOfLastWord: ## @lengthOfLastWord
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
cmpb $0, (%rdi)
je LBB0_1
## %bb.2:
movq %rdi, %r14
callq _strlen
movq %rax, %rbx
addq %r14, %rbx
movq __DefaultRuneLocale@GOTPCREL(%rip), %r12
movl $16384, %r15d ## imm = 0x4000
jmp LBB0_3
.p2align 4, 0x90
LBB0_6: ## in Loop: Header=BB0_3 Depth=1
movl $16384, %esi ## imm = 0x4000
callq ___maskrune
LBB0_7: ## in Loop: Header=BB0_3 Depth=1
decq %rbx
testl %eax, %eax
je LBB0_8
LBB0_3: ## =>This Inner Loop Header: Depth=1
cmpq %r14, %rbx
jbe LBB0_8
## %bb.4: ## in Loop: Header=BB0_3 Depth=1
movsbl -1(%rbx), %edi
testl %edi, %edi
js LBB0_6
## %bb.5: ## in Loop: Header=BB0_3 Depth=1
movl %edi, %eax
movl 60(%r12,%rax,4), %eax
andl %r15d, %eax
jmp LBB0_7
LBB0_8:
movl %ebx, %eax
subl %r14d, %eax
incl %eax
movl %eax, -44(%rbp) ## 4-byte Spill
incq %rbx
xorl %r15d, %r15d
movl $16384, %r13d ## imm = 0x4000
.p2align 4, 0x90
LBB0_9: ## =>This Inner Loop Header: Depth=1
movsbl -1(%rbx), %edi
testl %edi, %edi
js LBB0_11
## %bb.10: ## in Loop: Header=BB0_9 Depth=1
movl %edi, %eax
movl 60(%r12,%rax,4), %eax
andl %r13d, %eax
testl %eax, %eax
je LBB0_13
jmp LBB0_15
.p2align 4, 0x90
LBB0_11: ## in Loop: Header=BB0_9 Depth=1
movl $16384, %esi ## imm = 0x4000
callq ___maskrune
testl %eax, %eax
jne LBB0_15
LBB0_13: ## in Loop: Header=BB0_9 Depth=1
incl %r15d
decq %rbx
cmpq %r14, %rbx
jne LBB0_9
## %bb.14:
movl -44(%rbp), %r15d ## 4-byte Reload
jmp LBB0_15
LBB0_1:
xorl %r15d, %r15d
LBB0_15:
movl %r15d, %eax
addq $8, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _lengthOfLastWord ; -- Begin function lengthOfLastWord
.p2align 2
_lengthOfLastWord: ; @lengthOfLastWord
.cfi_startproc
; %bb.0:
stp x24, x23, [sp, #-64]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
ldrb w8, [x0]
cbz w8, LBB0_12
; %bb.1:
mov x19, x0
bl _strlen
add x22, x19, x0
Lloh0:
adrp x21, __DefaultRuneLocale@GOTPAGE
Lloh1:
ldr x21, [x21, __DefaultRuneLocale@GOTPAGEOFF]
b LBB0_3
LBB0_2: ; in Loop: Header=BB0_3 Depth=1
mov w1, #16384
bl ___maskrune
cbz w0, LBB0_6
LBB0_3: ; =>This Inner Loop Header: Depth=1
cmp x22, x19
b.ls LBB0_6
; %bb.4: ; in Loop: Header=BB0_3 Depth=1
ldrsb w0, [x22, #-1]!
tbnz w0, #31, LBB0_2
; %bb.5: ; in Loop: Header=BB0_3 Depth=1
add x8, x21, w0, uxtw #2
ldr w8, [x8, #60]
and w0, w8, #0x4000
cbnz w0, LBB0_3
LBB0_6:
mov w20, #0
sub w8, w22, w19
add w23, w8, #1
add x22, x22, #1
LBB0_7: ; =>This Inner Loop Header: Depth=1
ldursb w0, [x22, #-1]
tbnz w0, #31, LBB0_9
; %bb.8: ; in Loop: Header=BB0_7 Depth=1
add x8, x21, w0, uxtw #2
ldr w8, [x8, #60]
and w0, w8, #0x4000
cbz w0, LBB0_10
b LBB0_13
LBB0_9: ; in Loop: Header=BB0_7 Depth=1
mov w1, #16384
bl ___maskrune
cbnz w0, LBB0_13
LBB0_10: ; in Loop: Header=BB0_7 Depth=1
add w20, w20, #1
sub x22, x22, #1
cmp x22, x19
b.ne LBB0_7
; %bb.11:
mov x20, x23
b LBB0_13
LBB0_12:
mov w20, #0
LBB0_13:
mov x0, x20
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
ldp x24, x23, [sp], #64 ; 16-byte Folded Reload
ret
.loh AdrpLdrGot Lloh0, Lloh1
.cfi_endproc
; -- End function
.subsections_via_symbols
| the_stack_data/1191989.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function ubi_get_compat
_ubi_get_compat: ## @ubi_get_compat
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq _UBI_LAYOUT_VOLUME_ID@GOTPCREL(%rip), %rcx
xorl %eax, %eax
cmpl %esi, (%rcx)
jne LBB0_2
## %bb.1:
movq _UBI_LAYOUT_VOLUME_COMPAT@GOTPCREL(%rip), %rax
movl (%rax), %eax
LBB0_2:
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _UBI_LAYOUT_VOLUME_ID,4,2 ## @UBI_LAYOUT_VOLUME_ID
.comm _UBI_LAYOUT_VOLUME_COMPAT,4,2 ## @UBI_LAYOUT_VOLUME_COMPAT
.no_dead_strip _ubi_get_compat
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function ubi_get_compat
_ubi_get_compat: ; @ubi_get_compat
.cfi_startproc
; %bb.0:
Lloh0:
adrp x8, _UBI_LAYOUT_VOLUME_ID@GOTPAGE
Lloh1:
ldr x8, [x8, _UBI_LAYOUT_VOLUME_ID@GOTPAGEOFF]
Lloh2:
ldr w8, [x8]
Lloh3:
adrp x9, _UBI_LAYOUT_VOLUME_COMPAT@GOTPAGE
Lloh4:
ldr x9, [x9, _UBI_LAYOUT_VOLUME_COMPAT@GOTPAGEOFF]
Lloh5:
ldr w9, [x9]
cmp w8, w1
csel w0, w9, wzr, eq
ret
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _UBI_LAYOUT_VOLUME_ID,4,2 ; @UBI_LAYOUT_VOLUME_ID
.comm _UBI_LAYOUT_VOLUME_COMPAT,4,2 ; @UBI_LAYOUT_VOLUME_COMPAT
.no_dead_strip _ubi_get_compat
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/drivers/mtd/ubi/extr_eba.c_ubi_get_compat.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function it930x_tuner_attach
_it930x_tuner_attach: ## @it930x_tuner_attach
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdi, %rbx
callq _adap_to_priv
movq %rax, %r15
movq %rbx, %rdi
callq _adap_to_d
movq %rax, %r12
movq (%rax), %r14
movl (%rbx), %edx
leaq L_.str(%rip), %rsi
movq %r14, %rdi
callq _dev_dbg
leaq -48(%rbp), %r13
movq %r13, %rdi
xorl %esi, %esi
movl $8, %edx
callq _memset
movq 8(%rbx), %rax
movl (%rax), %eax
movl %eax, -44(%rbp)
movq _it930x_addresses_table@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq (%r15), %rcx
movl 4(%rax,%rcx,8), %edx
movl %edx, -48(%rbp)
movl (%rax,%rcx,8), %edx
movl 8(%r15), %r8d
leaq L_.str.1(%rip), %rsi
movq %r12, %rdi
movq %r13, %rcx
callq _af9035_add_i2c_dev
movl %eax, %ebx
testl %eax, %eax
je LBB0_2
## %bb.1:
leaq L_.str.2(%rip), %rsi
movq %r14, %rdi
movl %ebx, %edx
callq _dev_dbg
LBB0_2:
movl %ebx, %eax
addq $8, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "adap->id=%d\n"
.comm _it930x_addresses_table,8,3 ## @it930x_addresses_table
L_.str.1: ## @.str.1
.asciz "si2157"
L_.str.2: ## @.str.2
.asciz "failed=%d\n"
.no_dead_strip _it930x_tuner_attach
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function it930x_tuner_attach
_it930x_tuner_attach: ; @it930x_tuner_attach
.cfi_startproc
; %bb.0:
sub sp, sp, #64
.cfi_def_cfa_offset 64
stp x22, x21, [sp, #16] ; 16-byte Folded Spill
stp x20, x19, [sp, #32] ; 16-byte Folded Spill
stp x29, x30, [sp, #48] ; 16-byte Folded Spill
add x29, sp, #48
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x20, x0
bl _adap_to_priv
mov x21, x0
mov x0, x20
bl _adap_to_d
mov x22, x0
ldr x19, [x0]
ldr w2, [x20]
Lloh0:
adrp x1, l_.str@PAGE
Lloh1:
add x1, x1, l_.str@PAGEOFF
mov x0, x19
bl _dev_dbg
add x0, sp, #8
mov w1, #0
mov w2, #8
bl _memset
ldr x8, [x20, #8]
ldr w8, [x8]
Lloh2:
adrp x9, _it930x_addresses_table@GOTPAGE
Lloh3:
ldr x9, [x9, _it930x_addresses_table@GOTPAGEOFF]
Lloh4:
ldr x9, [x9]
ldr x10, [x21]
add x9, x9, x10, lsl #3
ldp w2, w10, [x9]
stp w10, w8, [sp, #8]
ldr w4, [x21, #8]
Lloh5:
adrp x1, l_.str.1@PAGE
Lloh6:
add x1, x1, l_.str.1@PAGEOFF
add x3, sp, #8
mov x0, x22
bl _af9035_add_i2c_dev
mov x20, x0
cbz w0, LBB0_2
; %bb.1:
Lloh7:
adrp x1, l_.str.2@PAGE
Lloh8:
add x1, x1, l_.str.2@PAGEOFF
mov x0, x19
mov x2, x20
bl _dev_dbg
LBB0_2:
mov x0, x20
ldp x29, x30, [sp, #48] ; 16-byte Folded Reload
ldp x20, x19, [sp, #32] ; 16-byte Folded Reload
ldp x22, x21, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #64
ret
.loh AdrpAdd Lloh5, Lloh6
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpAdd Lloh0, Lloh1
.loh AdrpAdd Lloh7, Lloh8
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "adap->id=%d\n"
.comm _it930x_addresses_table,8,3 ; @it930x_addresses_table
l_.str.1: ; @.str.1
.asciz "si2157"
l_.str.2: ; @.str.2
.asciz "failed=%d\n"
.no_dead_strip _it930x_tuner_attach
.subsections_via_symbols
| AnghaBench/linux/drivers/media/usb/dvb-usb-v2/extr_af9035.c_it930x_tuner_attach.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function exit_tfm
_exit_tfm: ## @exit_tfm
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
callq _crypto_skcipher_ctx
movq %rax, %rbx
movl 4(%rax), %edi
callq _crypto_free_skcipher
movl (%rbx), %edi
addq $8, %rsp
popq %rbx
popq %rbp
jmp _crypto_free_cipher ## TAILCALL
.cfi_endproc
## -- End function
.no_dead_strip _exit_tfm
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function exit_tfm
_exit_tfm: ; @exit_tfm
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
bl _crypto_skcipher_ctx
mov x19, x0
ldr w0, [x0, #4]
bl _crypto_free_skcipher
ldr w0, [x19]
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _crypto_free_cipher
.cfi_endproc
; -- End function
.no_dead_strip _exit_tfm
.subsections_via_symbols
| AnghaBench/linux/crypto/extr_xts.c_exit_tfm.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function af9013_release
_af9013_release: ## @af9013_release
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq (%rdi), %rdi
popq %rbp
jmp _kfree ## TAILCALL
.cfi_endproc
## -- End function
.no_dead_strip _af9013_release
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function af9013_release
_af9013_release: ; @af9013_release
.cfi_startproc
; %bb.0:
ldr x0, [x0]
b _kfree
.cfi_endproc
; -- End function
.no_dead_strip _af9013_release
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/drivers/media/dvb/frontends/extr_af9013.c_af9013_release.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function parse_tunnel_attr
_parse_tunnel_attr: ## @parse_tunnel_attr
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $72, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %r8, -48(%rbp) ## 8-byte Spill
movq %rcx, -80(%rbp) ## 8-byte Spill
movq %rdx, %r12
movq %rsi, %r15
movq %rdi, %r14
movq (%rdx), %rax
movq %rax, -96(%rbp) ## 8-byte Spill
movq _fte_match_param@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq (%rsi), %rsi
movq _outer_headers@GOTPCREL(%rip), %rbx
movl (%rbx), %edx
callq _MLX5_ADDR_OF
movq %rax, %r13
movq _fte_match_param@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq 8(%r15), %rsi
movl (%rbx), %edx
callq _MLX5_ADDR_OF
movq %rax, %rbx
movq %r12, %rdi
callq _flow_cls_offload_flow_rule
movq %rax, -72(%rbp) ## 8-byte Spill
movq -48(%rbp), %rax ## 8-byte Reload
movq %rax, (%rsp)
movq -80(%rbp), %rdi ## 8-byte Reload
movq %r13, %r8
movq %r14, %r13
movq %r14, %rsi
movq %r15, %rdx
movq %rbx, %r15
movq %r12, %rcx
movq %r8, %r12
movq %rbx, %r9
callq _mlx5e_tc_tun_parse
testl %eax, %eax
je LBB0_2
## %bb.1:
movl %eax, %ebx
leaq L_.str(%rip), %rsi
movq -96(%rbp), %rdi ## 8-byte Reload
callq _NL_SET_ERR_MSG_MOD
jmp LBB0_13
LBB0_2:
movq _FLOW_DISSECTOR_KEY_ENC_CONTROL@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq -72(%rbp), %rdi ## 8-byte Reload
callq _flow_rule_match_key
testq %rax, %rax
movq %r13, -80(%rbp) ## 8-byte Spill
je LBB0_8
## %bb.3:
leaq -104(%rbp), %rsi
movq -72(%rbp), %rdi ## 8-byte Reload
callq _flow_rule_match_enc_control
movq -104(%rbp), %rax
movq (%rax), %rax
movq _FLOW_DISSECTOR_KEY_IPV4_ADDRS@GOTPCREL(%rip), %rcx
cmpq (%rcx), %rax
jne LBB0_5
## %bb.4:
leaq -64(%rbp), %rsi
movq -72(%rbp), %rdi ## 8-byte Reload
callq _flow_rule_match_enc_ipv4_addrs
movq %r15, -48(%rbp) ## 8-byte Spill
movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r15
movl (%r15), %ebx
movq _src_ipv4_src_ipv6@GOTPCREL(%rip), %rax
movl 4(%rax), %r14d
movq -56(%rbp), %rax
movl 4(%rax), %edi
callq _ntohl
movl %ebx, %edi
movq %r12, %r13
movq %r12, %rsi
movl %r14d, %edx
movl %eax, %ecx
callq _MLX5_SET
movl (%r15), %ebx
movq _src_ipv4_src_ipv6@GOTPCREL(%rip), %rax
movl 4(%rax), %r14d
movq -64(%rbp), %rax
movl 4(%rax), %edi
callq _ntohl
movl %ebx, %edi
movq -48(%rbp), %rsi ## 8-byte Reload
movl %r14d, %edx
movl %eax, %ecx
callq _MLX5_SET
movl (%r15), %ebx
movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax
movl 4(%rax), %r14d
movq -56(%rbp), %rax
movl (%rax), %edi
callq _ntohl
movl %ebx, %edi
movq %r12, %rsi
movl %r14d, %edx
movl %eax, %ecx
callq _MLX5_SET
movl (%r15), %ebx
movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax
movl 4(%rax), %r14d
movq -64(%rbp), %rax
movl (%rax), %edi
callq _ntohl
movl %ebx, %edi
movq -48(%rbp), %rsi ## 8-byte Reload
movl %r14d, %edx
movl %eax, %ecx
callq _MLX5_SET
movl (%r15), %edi
movq _ethertype@GOTPCREL(%rip), %rbx
movl (%rbx), %edx
movq %r12, %rsi
callq _MLX5_SET_TO_ONES
movl (%r15), %edi
movq -48(%rbp), %r15 ## 8-byte Reload
movl (%rbx), %edx
movq _ETH_P_IP@GOTPCREL(%rip), %rax
jmp LBB0_7
LBB0_5:
movq _FLOW_DISSECTOR_KEY_IPV6_ADDRS@GOTPCREL(%rip), %rcx
cmpq (%rcx), %rax
jne LBB0_8
## %bb.6:
leaq -64(%rbp), %rsi
movq -72(%rbp), %rdi ## 8-byte Reload
callq _flow_rule_match_enc_ipv6_addrs
movq %r15, -48(%rbp) ## 8-byte Spill
movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _src_ipv4_src_ipv6@GOTPCREL(%rip), %r13
movl (%r13), %edx
movq %r12, %rsi
callq _MLX5_ADDR_OF
movq %rax, %r14
movq -56(%rbp), %rbx
addq $4, %rbx
movq _ipv6_layout@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq %r12, -88(%rbp) ## 8-byte Spill
movq _ipv6@GOTPCREL(%rip), %rax
movl (%rax), %esi
callq _MLX5_FLD_SZ_BYTES
movq %r14, %rdi
movq %rbx, %rsi
movl %eax, %edx
callq _memcpy
movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r12
movl (%r12), %edi
movl (%r13), %edx
movq -48(%rbp), %rsi ## 8-byte Reload
callq _MLX5_ADDR_OF
movq %rax, %r14
movq -64(%rbp), %rbx
addq $4, %rbx
movq _ipv6_layout@GOTPCREL(%rip), %r15
movl (%r15), %edi
movq _ipv6@GOTPCREL(%rip), %r13
movl (%r13), %esi
callq _MLX5_FLD_SZ_BYTES
movq %r14, %rdi
movq %rbx, %rsi
movl %eax, %edx
callq _memcpy
movl (%r12), %edi
movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax
movl (%rax), %edx
movq -88(%rbp), %rsi ## 8-byte Reload
callq _MLX5_ADDR_OF
movq %rax, %rbx
movq -56(%rbp), %r14
movl (%r15), %edi
movl (%r13), %esi
callq _MLX5_FLD_SZ_BYTES
movq %rbx, %rdi
movq %r14, %rsi
movl %eax, %edx
callq _memcpy
movl (%r12), %edi
movq %r12, %r15
movq _dst_ipv4_dst_ipv6@GOTPCREL(%rip), %rax
movl (%rax), %edx
movq -48(%rbp), %rsi ## 8-byte Reload
callq _MLX5_ADDR_OF
movq %rax, %r13
movq -64(%rbp), %r14
movq _ipv6_layout@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _ipv6@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq -88(%rbp), %rbx ## 8-byte Reload
callq _MLX5_FLD_SZ_BYTES
movq %r13, %rdi
movq %r14, %rsi
movl %eax, %edx
callq _memcpy
movl (%r12), %edi
movq _ethertype@GOTPCREL(%rip), %r14
movl (%r14), %edx
movq %rbx, %r12
movq %rbx, %rsi
callq _MLX5_SET_TO_ONES
movl (%r15), %edi
movq -48(%rbp), %r15 ## 8-byte Reload
movl (%r14), %edx
movq _ETH_P_IPV6@GOTPCREL(%rip), %rax
LBB0_7:
movl (%rax), %ecx
movq %r15, %rsi
callq _MLX5_SET
LBB0_8:
movq _FLOW_DISSECTOR_KEY_ENC_IP@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq -72(%rbp), %rdi ## 8-byte Reload
callq _flow_rule_match_key
testq %rax, %rax
je LBB0_12
## %bb.9:
leaq -64(%rbp), %rsi
movq -72(%rbp), %rdi ## 8-byte Reload
callq _flow_rule_match_enc_ip
movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r14
movl (%r14), %edi
movq _ip_ecn@GOTPCREL(%rip), %r13
movl (%r13), %edx
movq -64(%rbp), %rax
movl (%rax), %ecx
andl $3, %ecx
movq %r12, %rbx
movq %r12, %rsi
callq _MLX5_SET
movl (%r14), %edi
movl (%r13), %edx
movq -56(%rbp), %rax
movl (%rax), %ecx
andl $3, %ecx
movq %r15, %rsi
callq _MLX5_SET
movl (%r14), %edi
movq _ip_dscp@GOTPCREL(%rip), %r13
movl (%r13), %edx
movq -64(%rbp), %rax
movl (%rax), %ecx
sarl $2, %ecx
movq %r12, %rsi
callq _MLX5_SET
movl (%r14), %edi
movl (%r13), %edx
movq -56(%rbp), %rax
movl (%rax), %ecx
sarl $2, %ecx
movq %r15, %rsi
callq _MLX5_SET
movl (%r14), %edi
movq _ttl_hoplimit@GOTPCREL(%rip), %r13
movl (%r13), %edx
movq -64(%rbp), %rax
movl 4(%rax), %ecx
movq %r12, %rsi
callq _MLX5_SET
movl (%r14), %edi
movl (%r13), %edx
movq -56(%rbp), %rax
movl 4(%rax), %ecx
movq %r15, %rsi
callq _MLX5_SET
movq -64(%rbp), %rax
cmpl $0, 4(%rax)
je LBB0_12
## %bb.10:
movq -80(%rbp), %rax ## 8-byte Reload
movl 8(%rax), %edi
movq _ft_field_support@GOTPCREL(%rip), %rax
movl (%rax), %esi
callq _MLX5_CAP_ESW_FLOWTABLE_FDB
testl %eax, %eax
je LBB0_11
LBB0_12:
movq _fte_match_set_lyr_2_4@GOTPCREL(%rip), %r13
movl (%r13), %edi
movq _dmac_47_16@GOTPCREL(%rip), %r14
movl (%r14), %edx
movq %r12, %rsi
callq _MLX5_SET_TO_ONES
movl (%r13), %edi
movq _dmac_15_0@GOTPCREL(%rip), %rax
movl (%rax), %edx
movq %r12, %rsi
callq _MLX5_SET_TO_ONES
movl (%r13), %edi
movl (%r14), %edx
movq %r15, %rsi
callq _MLX5_ADDR_OF
movq -80(%rbp), %rcx ## 8-byte Reload
movq (%rcx), %rcx
movl (%rcx), %esi
movq %rax, %rdi
callq _ether_addr_copy
movl (%r13), %edi
movq _frag@GOTPCREL(%rip), %r14
movl (%r14), %edx
movq %r12, %rsi
movl $1, %ecx
callq _MLX5_SET
movl (%r13), %edi
movl (%r14), %edx
xorl %ebx, %ebx
movq %r15, %rsi
xorl %ecx, %ecx
callq _MLX5_SET
LBB0_13:
movl %ebx, %eax
addq $72, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB0_11:
leaq L_.str.1(%rip), %rsi
movq -96(%rbp), %rdi ## 8-byte Reload
callq _NL_SET_ERR_MSG_MOD
movq _EOPNOTSUPP@GOTPCREL(%rip), %rax
xorl %ebx, %ebx
subl (%rax), %ebx
jmp LBB0_13
.cfi_endproc
## -- End function
.comm _fte_match_param,4,2 ## @fte_match_param
.comm _outer_headers,4,2 ## @outer_headers
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "failed to parse tunnel attributes"
.comm _FLOW_DISSECTOR_KEY_ENC_CONTROL,4,2 ## @FLOW_DISSECTOR_KEY_ENC_CONTROL
.comm _FLOW_DISSECTOR_KEY_IPV4_ADDRS,8,3 ## @FLOW_DISSECTOR_KEY_IPV4_ADDRS
.comm _fte_match_set_lyr_2_4,4,2 ## @fte_match_set_lyr_2_4
.comm _src_ipv4_src_ipv6,8,2 ## @src_ipv4_src_ipv6
.comm _dst_ipv4_dst_ipv6,8,2 ## @dst_ipv4_dst_ipv6
.comm _ethertype,4,2 ## @ethertype
.comm _ETH_P_IP,4,2 ## @ETH_P_IP
.comm _FLOW_DISSECTOR_KEY_IPV6_ADDRS,8,3 ## @FLOW_DISSECTOR_KEY_IPV6_ADDRS
.comm _ipv6_layout,4,2 ## @ipv6_layout
.comm _ipv6,4,2 ## @ipv6
.comm _ETH_P_IPV6,4,2 ## @ETH_P_IPV6
.comm _FLOW_DISSECTOR_KEY_ENC_IP,4,2 ## @FLOW_DISSECTOR_KEY_ENC_IP
.comm _ip_ecn,4,2 ## @ip_ecn
.comm _ip_dscp,4,2 ## @ip_dscp
.comm _ttl_hoplimit,4,2 ## @ttl_hoplimit
.comm _ft_field_support,4,2 ## @ft_field_support
L_.str.1: ## @.str.1
.asciz "Matching on TTL is not supported"
.comm _EOPNOTSUPP,4,2 ## @EOPNOTSUPP
.comm _dmac_47_16,4,2 ## @dmac_47_16
.comm _dmac_15_0,4,2 ## @dmac_15_0
.comm _frag,4,2 ## @frag
.no_dead_strip _parse_tunnel_attr
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function parse_tunnel_attr
_parse_tunnel_attr: ; @parse_tunnel_attr
.cfi_startproc
; %bb.0:
sub sp, sp, #128
.cfi_def_cfa_offset 128
stp x28, x27, [sp, #32] ; 16-byte Folded Spill
stp x26, x25, [sp, #48] ; 16-byte Folded Spill
stp x24, x23, [sp, #64] ; 16-byte Folded Spill
stp x22, x21, [sp, #80] ; 16-byte Folded Spill
stp x20, x19, [sp, #96] ; 16-byte Folded Spill
stp x29, x30, [sp, #112] ; 16-byte Folded Spill
add x29, sp, #112
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
.cfi_offset w25, -72
.cfi_offset w26, -80
.cfi_offset w27, -88
.cfi_offset w28, -96
mov x24, x4
mov x25, x3
mov x26, x2
mov x27, x1
mov x19, x0
ldr x22, [x2]
Lloh0:
adrp x21, _fte_match_param@GOTPAGE
Lloh1:
ldr x21, [x21, _fte_match_param@GOTPAGEOFF]
ldr w0, [x21]
ldr x1, [x1]
Lloh2:
adrp x23, _outer_headers@GOTPAGE
Lloh3:
ldr x23, [x23, _outer_headers@GOTPAGEOFF]
ldr w2, [x23]
bl _MLX5_ADDR_OF
mov x20, x0
ldr w0, [x21]
ldr x1, [x27, #8]
ldr w2, [x23]
bl _MLX5_ADDR_OF
mov x21, x0
mov x0, x26
bl _flow_cls_offload_flow_rule
mov x23, x0
mov x0, x25
mov x1, x19
mov x2, x27
mov x3, x26
mov x4, x20
mov x5, x21
mov x6, x24
bl _mlx5e_tc_tun_parse
cbz w0, LBB0_2
; %bb.1:
mov x24, x0
Lloh4:
adrp x1, l_.str@PAGE
Lloh5:
add x1, x1, l_.str@PAGEOFF
mov x0, x22
bl _NL_SET_ERR_MSG_MOD
b LBB0_12
LBB0_2:
Lloh6:
adrp x8, _FLOW_DISSECTOR_KEY_ENC_CONTROL@GOTPAGE
Lloh7:
ldr x8, [x8, _FLOW_DISSECTOR_KEY_ENC_CONTROL@GOTPAGEOFF]
Lloh8:
ldr w1, [x8]
mov x0, x23
bl _flow_rule_match_key
Lloh9:
adrp x26, _fte_match_set_lyr_2_4@GOTPAGE
Lloh10:
ldr x26, [x26, _fte_match_set_lyr_2_4@GOTPAGEOFF]
cbz x0, LBB0_8
; %bb.3:
add x1, sp, #24
mov x0, x23
bl _flow_rule_match_enc_control
ldr x8, [sp, #24]
ldr x8, [x8]
Lloh11:
adrp x9, _FLOW_DISSECTOR_KEY_IPV4_ADDRS@GOTPAGE
Lloh12:
ldr x9, [x9, _FLOW_DISSECTOR_KEY_IPV4_ADDRS@GOTPAGEOFF]
Lloh13:
ldr x9, [x9]
cmp x8, x9
b.ne LBB0_5
; %bb.4:
add x1, sp, #8
mov x0, x23
bl _flow_rule_match_enc_ipv4_addrs
ldr w24, [x26]
Lloh14:
adrp x27, _src_ipv4_src_ipv6@GOTPAGE
Lloh15:
ldr x27, [x27, _src_ipv4_src_ipv6@GOTPAGEOFF]
ldr w25, [x27, #4]
ldr x8, [sp, #16]
ldr w0, [x8, #4]
bl _ntohl
mov x3, x0
mov x0, x24
mov x1, x20
mov x2, x25
bl _MLX5_SET
ldr w24, [x26]
ldr w25, [x27, #4]
ldr x8, [sp, #8]
ldr w0, [x8, #4]
bl _ntohl
mov x3, x0
mov x0, x24
mov x1, x21
mov x2, x25
bl _MLX5_SET
ldr w24, [x26]
Lloh16:
adrp x27, _dst_ipv4_dst_ipv6@GOTPAGE
Lloh17:
ldr x27, [x27, _dst_ipv4_dst_ipv6@GOTPAGEOFF]
ldr w25, [x27, #4]
ldr x8, [sp, #16]
ldr w0, [x8]
bl _ntohl
mov x3, x0
mov x0, x24
mov x1, x20
mov x2, x25
bl _MLX5_SET
ldr w24, [x26]
ldr w25, [x27, #4]
ldr x8, [sp, #8]
ldr w0, [x8]
bl _ntohl
mov x3, x0
mov x0, x24
mov x1, x21
mov x2, x25
bl _MLX5_SET
ldr w0, [x26]
Lloh18:
adrp x24, _ethertype@GOTPAGE
Lloh19:
ldr x24, [x24, _ethertype@GOTPAGEOFF]
ldr w2, [x24]
mov x1, x20
bl _MLX5_SET_TO_ONES
ldr w0, [x26]
ldr w2, [x24]
Lloh20:
adrp x8, _ETH_P_IP@GOTPAGE
Lloh21:
ldr x8, [x8, _ETH_P_IP@GOTPAGEOFF]
b LBB0_7
LBB0_5:
Lloh22:
adrp x9, _FLOW_DISSECTOR_KEY_IPV6_ADDRS@GOTPAGE
Lloh23:
ldr x9, [x9, _FLOW_DISSECTOR_KEY_IPV6_ADDRS@GOTPAGEOFF]
Lloh24:
ldr x9, [x9]
cmp x8, x9
b.ne LBB0_8
; %bb.6:
add x1, sp, #8
mov x0, x23
bl _flow_rule_match_enc_ipv6_addrs
ldr w0, [x26]
Lloh25:
adrp x8, _src_ipv4_src_ipv6@GOTPAGE
Lloh26:
ldr x8, [x8, _src_ipv4_src_ipv6@GOTPAGEOFF]
Lloh27:
ldr w2, [x8]
mov x1, x20
bl _MLX5_ADDR_OF
mov x24, x0
ldr x8, [sp, #16]
add x25, x8, #4
Lloh28:
adrp x28, _ipv6_layout@GOTPAGE
Lloh29:
ldr x28, [x28, _ipv6_layout@GOTPAGEOFF]
ldr w0, [x28]
Lloh30:
adrp x27, _ipv6@GOTPAGE
Lloh31:
ldr x27, [x27, _ipv6@GOTPAGEOFF]
ldr w1, [x27]
bl _MLX5_FLD_SZ_BYTES
mov x2, x0
mov x0, x24
mov x1, x25
bl _memcpy
ldr w0, [x26]
Lloh32:
adrp x8, _src_ipv4_src_ipv6@GOTPAGE
Lloh33:
ldr x8, [x8, _src_ipv4_src_ipv6@GOTPAGEOFF]
Lloh34:
ldr w2, [x8]
mov x1, x21
bl _MLX5_ADDR_OF
mov x24, x0
ldr x8, [sp, #8]
add x25, x8, #4
ldr w0, [x28]
ldr w1, [x27]
bl _MLX5_FLD_SZ_BYTES
mov x2, x0
mov x0, x24
mov x1, x25
bl _memcpy
ldr w0, [x26]
Lloh35:
adrp x8, _dst_ipv4_dst_ipv6@GOTPAGE
Lloh36:
ldr x8, [x8, _dst_ipv4_dst_ipv6@GOTPAGEOFF]
Lloh37:
ldr w2, [x8]
mov x1, x20
bl _MLX5_ADDR_OF
mov x24, x0
ldr x25, [sp, #16]
ldr w0, [x28]
ldr w1, [x27]
bl _MLX5_FLD_SZ_BYTES
mov x2, x0
mov x0, x24
mov x1, x25
bl _memcpy
ldr w0, [x26]
Lloh38:
adrp x8, _dst_ipv4_dst_ipv6@GOTPAGE
Lloh39:
ldr x8, [x8, _dst_ipv4_dst_ipv6@GOTPAGEOFF]
Lloh40:
ldr w2, [x8]
mov x1, x21
bl _MLX5_ADDR_OF
mov x24, x0
ldr x25, [sp, #8]
ldr w0, [x28]
ldr w1, [x27]
bl _MLX5_FLD_SZ_BYTES
mov x2, x0
mov x0, x24
mov x1, x25
bl _memcpy
ldr w0, [x26]
Lloh41:
adrp x24, _ethertype@GOTPAGE
Lloh42:
ldr x24, [x24, _ethertype@GOTPAGEOFF]
ldr w2, [x24]
mov x1, x20
bl _MLX5_SET_TO_ONES
ldr w0, [x26]
ldr w2, [x24]
Lloh43:
adrp x8, _ETH_P_IPV6@GOTPAGE
Lloh44:
ldr x8, [x8, _ETH_P_IPV6@GOTPAGEOFF]
LBB0_7:
ldr w3, [x8]
mov x1, x21
bl _MLX5_SET
LBB0_8:
Lloh45:
adrp x8, _FLOW_DISSECTOR_KEY_ENC_IP@GOTPAGE
Lloh46:
ldr x8, [x8, _FLOW_DISSECTOR_KEY_ENC_IP@GOTPAGEOFF]
Lloh47:
ldr w1, [x8]
mov x0, x23
bl _flow_rule_match_key
cbz x0, LBB0_11
; %bb.9:
add x1, sp, #8
mov x0, x23
bl _flow_rule_match_enc_ip
ldr w0, [x26]
Lloh48:
adrp x23, _ip_ecn@GOTPAGE
Lloh49:
ldr x23, [x23, _ip_ecn@GOTPAGEOFF]
ldr w2, [x23]
ldr x8, [sp, #8]
ldr w8, [x8]
and w3, w8, #0x3
mov x1, x20
bl _MLX5_SET
ldr w0, [x26]
ldr w2, [x23]
ldr x8, [sp, #16]
ldr w8, [x8]
and w3, w8, #0x3
mov x1, x21
bl _MLX5_SET
ldr w0, [x26]
Lloh50:
adrp x23, _ip_dscp@GOTPAGE
Lloh51:
ldr x23, [x23, _ip_dscp@GOTPAGEOFF]
ldr w2, [x23]
ldr x8, [sp, #8]
ldr w8, [x8]
asr w3, w8, #2
mov x1, x20
bl _MLX5_SET
ldr w0, [x26]
ldr w2, [x23]
ldr x8, [sp, #16]
ldr w8, [x8]
asr w3, w8, #2
mov x1, x21
bl _MLX5_SET
ldr w0, [x26]
Lloh52:
adrp x23, _ttl_hoplimit@GOTPAGE
Lloh53:
ldr x23, [x23, _ttl_hoplimit@GOTPAGEOFF]
ldr w2, [x23]
ldr x8, [sp, #8]
ldr w3, [x8, #4]
mov x1, x20
bl _MLX5_SET
ldr w0, [x26]
ldr w2, [x23]
ldr x8, [sp, #16]
ldr w3, [x8, #4]
mov x1, x21
bl _MLX5_SET
ldr x8, [sp, #8]
ldr w8, [x8, #4]
cbz w8, LBB0_11
; %bb.10:
ldr w0, [x19, #8]
Lloh54:
adrp x8, _ft_field_support@GOTPAGE
Lloh55:
ldr x8, [x8, _ft_field_support@GOTPAGEOFF]
Lloh56:
ldr w1, [x8]
bl _MLX5_CAP_ESW_FLOWTABLE_FDB
cbz w0, LBB0_13
LBB0_11:
ldr w0, [x26]
Lloh57:
adrp x22, _dmac_47_16@GOTPAGE
Lloh58:
ldr x22, [x22, _dmac_47_16@GOTPAGEOFF]
ldr w2, [x22]
mov x1, x20
bl _MLX5_SET_TO_ONES
ldr w0, [x26]
Lloh59:
adrp x8, _dmac_15_0@GOTPAGE
Lloh60:
ldr x8, [x8, _dmac_15_0@GOTPAGEOFF]
Lloh61:
ldr w2, [x8]
mov x1, x20
bl _MLX5_SET_TO_ONES
ldr w0, [x26]
ldr w2, [x22]
mov x1, x21
bl _MLX5_ADDR_OF
ldr x8, [x19]
ldr w1, [x8]
bl _ether_addr_copy
ldr w0, [x26]
Lloh62:
adrp x19, _frag@GOTPAGE
Lloh63:
ldr x19, [x19, _frag@GOTPAGEOFF]
ldr w2, [x19]
mov x1, x20
mov w3, #1
bl _MLX5_SET
ldr w0, [x26]
ldr w2, [x19]
mov x1, x21
mov w3, #0
bl _MLX5_SET
mov w24, #0
LBB0_12:
mov x0, x24
ldp x29, x30, [sp, #112] ; 16-byte Folded Reload
ldp x20, x19, [sp, #96] ; 16-byte Folded Reload
ldp x22, x21, [sp, #80] ; 16-byte Folded Reload
ldp x24, x23, [sp, #64] ; 16-byte Folded Reload
ldp x26, x25, [sp, #48] ; 16-byte Folded Reload
ldp x28, x27, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #128
ret
LBB0_13:
Lloh64:
adrp x1, l_.str.1@PAGE
Lloh65:
add x1, x1, l_.str.1@PAGEOFF
mov x0, x22
bl _NL_SET_ERR_MSG_MOD
Lloh66:
adrp x8, _EOPNOTSUPP@GOTPAGE
Lloh67:
ldr x8, [x8, _EOPNOTSUPP@GOTPAGEOFF]
Lloh68:
ldr w8, [x8]
neg w24, w8
b LBB0_12
.loh AdrpLdrGot Lloh2, Lloh3
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpAdd Lloh4, Lloh5
.loh AdrpLdrGot Lloh9, Lloh10
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGot Lloh20, Lloh21
.loh AdrpLdrGot Lloh18, Lloh19
.loh AdrpLdrGot Lloh16, Lloh17
.loh AdrpLdrGot Lloh14, Lloh15
.loh AdrpLdrGotLdr Lloh22, Lloh23, Lloh24
.loh AdrpLdrGot Lloh43, Lloh44
.loh AdrpLdrGot Lloh41, Lloh42
.loh AdrpLdrGotLdr Lloh38, Lloh39, Lloh40
.loh AdrpLdrGotLdr Lloh35, Lloh36, Lloh37
.loh AdrpLdrGotLdr Lloh32, Lloh33, Lloh34
.loh AdrpLdrGot Lloh30, Lloh31
.loh AdrpLdrGot Lloh28, Lloh29
.loh AdrpLdrGotLdr Lloh25, Lloh26, Lloh27
.loh AdrpLdrGotLdr Lloh45, Lloh46, Lloh47
.loh AdrpLdrGot Lloh52, Lloh53
.loh AdrpLdrGot Lloh50, Lloh51
.loh AdrpLdrGot Lloh48, Lloh49
.loh AdrpLdrGotLdr Lloh54, Lloh55, Lloh56
.loh AdrpLdrGot Lloh62, Lloh63
.loh AdrpLdrGotLdr Lloh59, Lloh60, Lloh61
.loh AdrpLdrGot Lloh57, Lloh58
.loh AdrpLdrGotLdr Lloh66, Lloh67, Lloh68
.loh AdrpAdd Lloh64, Lloh65
.cfi_endproc
; -- End function
.comm _fte_match_param,4,2 ; @fte_match_param
.comm _outer_headers,4,2 ; @outer_headers
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "failed to parse tunnel attributes"
.comm _FLOW_DISSECTOR_KEY_ENC_CONTROL,4,2 ; @FLOW_DISSECTOR_KEY_ENC_CONTROL
.comm _FLOW_DISSECTOR_KEY_IPV4_ADDRS,8,3 ; @FLOW_DISSECTOR_KEY_IPV4_ADDRS
.comm _fte_match_set_lyr_2_4,4,2 ; @fte_match_set_lyr_2_4
.comm _src_ipv4_src_ipv6,8,2 ; @src_ipv4_src_ipv6
.comm _dst_ipv4_dst_ipv6,8,2 ; @dst_ipv4_dst_ipv6
.comm _ethertype,4,2 ; @ethertype
.comm _ETH_P_IP,4,2 ; @ETH_P_IP
.comm _FLOW_DISSECTOR_KEY_IPV6_ADDRS,8,3 ; @FLOW_DISSECTOR_KEY_IPV6_ADDRS
.comm _ipv6_layout,4,2 ; @ipv6_layout
.comm _ipv6,4,2 ; @ipv6
.comm _ETH_P_IPV6,4,2 ; @ETH_P_IPV6
.comm _FLOW_DISSECTOR_KEY_ENC_IP,4,2 ; @FLOW_DISSECTOR_KEY_ENC_IP
.comm _ip_ecn,4,2 ; @ip_ecn
.comm _ip_dscp,4,2 ; @ip_dscp
.comm _ttl_hoplimit,4,2 ; @ttl_hoplimit
.comm _ft_field_support,4,2 ; @ft_field_support
l_.str.1: ; @.str.1
.asciz "Matching on TTL is not supported"
.comm _EOPNOTSUPP,4,2 ; @EOPNOTSUPP
.comm _dmac_47_16,4,2 ; @dmac_47_16
.comm _dmac_15_0,4,2 ; @dmac_15_0
.comm _frag,4,2 ; @frag
.no_dead_strip _parse_tunnel_attr
.subsections_via_symbols
| AnghaBench/linux/drivers/net/ethernet/mellanox/mlx5/core/extr_en_tc.c_parse_tunnel_attr.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function ov9650_set_blue_balance
_ov9650_set_blue_balance: ## @ov9650_set_blue_balance
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movl %esi, %ebx
movq %rdi, %r14
movq _D_CONF@GOTPCREL(%rip), %rax
movl (%rax), %esi
leaq L_.str(%rip), %rdx
movl %ebx, %ecx
callq _gspca_dbg
movzbl %bl, %eax
movl %eax, -20(%rbp)
movq _OV9650_BLUE@GOTPCREL(%rip), %rax
movl (%rax), %esi
leaq -20(%rbp), %rdx
movq %r14, %rdi
movl $1, %ecx
callq _m5602_write_sensor
addq $16, %rsp
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _D_CONF,4,2 ## @D_CONF
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Set blue gain to %d\n"
.comm _OV9650_BLUE,4,2 ## @OV9650_BLUE
.no_dead_strip _ov9650_set_blue_balance
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function ov9650_set_blue_balance
_ov9650_set_blue_balance: ; @ov9650_set_blue_balance
.cfi_startproc
; %bb.0:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x1
mov x20, x0
Lloh0:
adrp x8, _D_CONF@GOTPAGE
Lloh1:
ldr x8, [x8, _D_CONF@GOTPAGEOFF]
Lloh2:
ldr w1, [x8]
Lloh3:
adrp x2, l_.str@PAGE
Lloh4:
add x2, x2, l_.str@PAGEOFF
mov x3, x19
bl _gspca_dbg
and w8, w19, #0xff
str w8, [sp, #12]
Lloh5:
adrp x8, _OV9650_BLUE@GOTPAGE
Lloh6:
ldr x8, [x8, _OV9650_BLUE@GOTPAGEOFF]
Lloh7:
ldr w1, [x8]
add x2, sp, #12
mov x0, x20
mov w3, #1
bl _m5602_write_sensor
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #48
ret
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _D_CONF,4,2 ; @D_CONF
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Set blue gain to %d\n"
.comm _OV9650_BLUE,4,2 ; @OV9650_BLUE
.no_dead_strip _ov9650_set_blue_balance
.subsections_via_symbols
| AnghaBench/linux/drivers/media/usb/gspca/m5602/extr_m5602_ov9650.c_ov9650_set_blue_balance.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _e1000_phy_force_speed_duplex_82577 ## -- Begin function e1000_phy_force_speed_duplex_82577
.p2align 4, 0x90
_e1000_phy_force_speed_duplex_82577: ## @e1000_phy_force_speed_duplex_82577
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rdi, %rbx
movq _MII_BMCR@GOTPCREL(%rip), %r14
movl (%r14), %esi
leaq -24(%rbp), %rdx
callq _e1e_rphy
testq %rax, %rax
jne LBB0_8
## %bb.1:
leaq -24(%rbp), %rsi
movq %rbx, %rdi
callq _e1000e_phy_force_speed_duplex_setup
movl (%r14), %esi
movl -24(%rbp), %edx
movq %rbx, %rdi
callq _e1e_wphy
testq %rax, %rax
je LBB0_2
LBB0_8:
addq $16, %rsp
popq %rbx
popq %r14
popq %rbp
retq
LBB0_2:
movl $1, %edi
callq _udelay
cmpq $0, (%rbx)
je LBB0_3
## %bb.4:
leaq L_.str(%rip), %rdi
callq _e_dbg
movq _PHY_FORCE_LIMIT@GOTPCREL(%rip), %r14
movl (%r14), %esi
leaq -20(%rbp), %rcx
movq %rbx, %rdi
movl $100000, %edx ## imm = 0x186A0
callq _e1000e_phy_has_link_generic
testq %rax, %rax
jne LBB0_8
## %bb.5:
cmpl $0, -20(%rbp)
jne LBB0_7
## %bb.6:
leaq L_.str.1(%rip), %rdi
callq _e_dbg
LBB0_7:
movl (%r14), %esi
leaq -20(%rbp), %rcx
movq %rbx, %rdi
movl $100000, %edx ## imm = 0x186A0
callq _e1000e_phy_has_link_generic
jmp LBB0_8
LBB0_3:
xorl %eax, %eax
jmp LBB0_8
.cfi_endproc
## -- End function
.comm _MII_BMCR,4,2 ## @MII_BMCR
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Waiting for forced speed/duplex link on 82577 phy\n"
.comm _PHY_FORCE_LIMIT,4,2 ## @PHY_FORCE_LIMIT
L_.str.1: ## @.str.1
.asciz "Link taking longer than expected.\n"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _e1000_phy_force_speed_duplex_82577 ; -- Begin function e1000_phy_force_speed_duplex_82577
.p2align 2
_e1000_phy_force_speed_duplex_82577: ; @e1000_phy_force_speed_duplex_82577
.cfi_startproc
; %bb.0:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x0
Lloh0:
adrp x20, _MII_BMCR@GOTPAGE
Lloh1:
ldr x20, [x20, _MII_BMCR@GOTPAGEOFF]
ldr w1, [x20]
add x2, sp, #12
bl _e1e_rphy
cbnz x0, LBB0_2
; %bb.1:
add x1, sp, #12
mov x0, x19
bl _e1000e_phy_force_speed_duplex_setup
ldr w1, [x20]
ldr w2, [sp, #12]
mov x0, x19
bl _e1e_wphy
cbz x0, LBB0_3
LBB0_2:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #48
ret
LBB0_3:
mov w0, #1
bl _udelay
ldr x8, [x19]
cbz x8, LBB0_8
; %bb.4:
Lloh2:
adrp x0, l_.str@PAGE
Lloh3:
add x0, x0, l_.str@PAGEOFF
bl _e_dbg
Lloh4:
adrp x20, _PHY_FORCE_LIMIT@GOTPAGE
Lloh5:
ldr x20, [x20, _PHY_FORCE_LIMIT@GOTPAGEOFF]
ldr w1, [x20]
add x3, sp, #8
mov x0, x19
mov w2, #34464
movk w2, #1, lsl #16
bl _e1000e_phy_has_link_generic
cbnz x0, LBB0_2
; %bb.5:
ldr w8, [sp, #8]
cbnz w8, LBB0_7
; %bb.6:
Lloh6:
adrp x0, l_.str.1@PAGE
Lloh7:
add x0, x0, l_.str.1@PAGEOFF
bl _e_dbg
LBB0_7:
ldr w1, [x20]
add x3, sp, #8
mov x0, x19
mov w2, #34464
movk w2, #1, lsl #16
bl _e1000e_phy_has_link_generic
b LBB0_2
LBB0_8:
mov x0, #0
b LBB0_2
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpLdrGot Lloh4, Lloh5
.loh AdrpAdd Lloh2, Lloh3
.loh AdrpAdd Lloh6, Lloh7
.cfi_endproc
; -- End function
.comm _MII_BMCR,4,2 ; @MII_BMCR
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Waiting for forced speed/duplex link on 82577 phy\n"
.comm _PHY_FORCE_LIMIT,4,2 ; @PHY_FORCE_LIMIT
l_.str.1: ; @.str.1
.asciz "Link taking longer than expected.\n"
.subsections_via_symbols
| AnghaBench/linux/drivers/net/ethernet/intel/e1000e/extr_phy.c_e1000_phy_force_speed_duplex_82577.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function sha256_finish_ctx
_sha256_finish_ctx: ## @sha256_finish_ctx
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rsi, %r14
movq %rdi, %r15
movslq (%rdi), %r12
movq 8(%rdi), %rax
movl (%rax), %ecx
leal (%rcx,%r12), %edx
movl %edx, (%rax)
testl %ecx, %ecx
jns LBB0_2
## %bb.1:
incl 4(%rax)
LBB0_2:
xorl %eax, %eax
cmpl $56, %r12d
setge %al
shll $6, %eax
subl %r12d, %eax
addl $56, %eax
movslq %eax, %rbx
leaq (,%r12,4), %rdi
addq 24(%r15), %rdi
movq _fillbuf@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq %rbx, %rdx
callq _memcpy
movq 8(%r15), %rax
movl (%rax), %edi
shll $3, %edi
callq _SWAP
movq 24(%r15), %rcx
addq %r12, %rbx
movl %eax, 16(%rcx,%rbx,4)
movq 8(%r15), %rax
movl (%rax), %edi
movl 4(%rax), %eax
shll $3, %eax
sarl $29, %edi
orl %eax, %edi
callq _SWAP
movq 24(%r15), %rdi
movl %eax, (%rdi,%rbx,4)
addl $8, %ebx
movl %ebx, %esi
movq %r15, %rdx
callq _sha256_process_block
movq 16(%r15), %rax
movl (%rax), %edi
callq _SWAP
movl %eax, (%r14)
movq 16(%r15), %rax
movl 4(%rax), %edi
callq _SWAP
movl %eax, 4(%r14)
movq 16(%r15), %rax
movl 8(%rax), %edi
callq _SWAP
movl %eax, 8(%r14)
movq 16(%r15), %rax
movl 12(%rax), %edi
callq _SWAP
movl %eax, 12(%r14)
movq 16(%r15), %rax
movl 16(%rax), %edi
callq _SWAP
movl %eax, 16(%r14)
movq 16(%r15), %rax
movl 20(%rax), %edi
callq _SWAP
movl %eax, 20(%r14)
movq 16(%r15), %rax
movl 24(%rax), %edi
callq _SWAP
movl %eax, 24(%r14)
movq 16(%r15), %rax
movl 28(%rax), %edi
callq _SWAP
movl %eax, 28(%r14)
movq %r14, %rax
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _fillbuf,4,2 ## @fillbuf
.no_dead_strip _sha256_finish_ctx
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function sha256_finish_ctx
_sha256_finish_ctx: ; @sha256_finish_ctx
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x19, x1
mov x20, x0
ldrsw x22, [x0]
ldr x8, [x0, #8]
ldr w9, [x8]
add w10, w9, w22
str w10, [x8]
tbz w9, #31, LBB0_2
; %bb.1:
ldr w9, [x8, #4]
add w9, w9, #1
str w9, [x8, #4]
LBB0_2:
mov w8, #120
mov w9, #56
cmp w22, #56
csel w8, w9, w8, lt
sub w8, w8, w22
sxtw x21, w8
ldr x8, [x20, #24]
add x0, x8, x22, lsl #2
Lloh0:
adrp x8, _fillbuf@GOTPAGE
Lloh1:
ldr x8, [x8, _fillbuf@GOTPAGEOFF]
Lloh2:
ldr w1, [x8]
mov x2, x21
bl _memcpy
ldr x8, [x20, #8]
ldr w8, [x8]
lsl w0, w8, #3
bl _SWAP
ldr x8, [x20, #24]
add x21, x21, x22
lsl x22, x21, #2
add x8, x22, x8
str w0, [x8, #16]
ldr x8, [x20, #8]
ldp w8, w9, [x8]
asr w8, w8, #29
orr w0, w8, w9, lsl #3
bl _SWAP
ldr x8, [x20, #24]
str w0, [x8, x22]
add w1, w21, #8
mov x0, x8
mov x2, x20
bl _sha256_process_block
ldr x8, [x20, #16]
ldr w0, [x8]
bl _SWAP
str w0, [x19]
ldr x8, [x20, #16]
ldr w0, [x8, #4]
bl _SWAP
str w0, [x19, #4]
ldr x8, [x20, #16]
ldr w0, [x8, #8]
bl _SWAP
str w0, [x19, #8]
ldr x8, [x20, #16]
ldr w0, [x8, #12]
bl _SWAP
str w0, [x19, #12]
ldr x8, [x20, #16]
ldr w0, [x8, #16]
bl _SWAP
str w0, [x19, #16]
ldr x8, [x20, #16]
ldr w0, [x8, #20]
bl _SWAP
str w0, [x19, #20]
ldr x8, [x20, #16]
ldr w0, [x8, #24]
bl _SWAP
str w0, [x19, #24]
ldr x8, [x20, #16]
ldr w0, [x8, #28]
bl _SWAP
str w0, [x19, #28]
mov x0, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _fillbuf,4,2 ; @fillbuf
.no_dead_strip _sha256_finish_ctx
.subsections_via_symbols
| AnghaBench/php-src/ext/standard/extr_crypt_sha256.c_sha256_finish_ctx.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _kernel2_main ## -- Begin function kernel2_main
.p2align 4, 0x90
_kernel2_main: ## @kernel2_main
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movl $115200, %edi ## imm = 0x1C200
callq _uart_init
movq _putc@GOTPCREL(%rip), %rax
movl (%rax), %esi
xorl %edi, %edi
callq _init_printf
xorl %eax, %eax
callq _get_el
leaq L_.str(%rip), %rdi
movl %eax, %esi
popq %rbp
jmp _printf ## TAILCALL
.cfi_endproc
## -- End function
.comm _putc,4,2 ## @putc
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "current EL:%d\r\n"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _kernel2_main ; -- Begin function kernel2_main
.p2align 2
_kernel2_main: ; @kernel2_main
.cfi_startproc
; %bb.0:
stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 16
mov x29, sp
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
mov w0, #49664
movk w0, #1, lsl #16
bl _uart_init
Lloh0:
adrp x8, _putc@GOTPAGE
Lloh1:
ldr x8, [x8, _putc@GOTPAGEOFF]
Lloh2:
ldr w1, [x8]
mov w0, #0
bl _init_printf
bl _get_el
mov x1, x0
Lloh3:
adrp x0, l_.str@PAGE
Lloh4:
add x0, x0, l_.str@PAGEOFF
ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
b _printf
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _putc,4,2 ; @putc
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "current EL:%d\r\n"
.subsections_via_symbols
| AnghaBench/raspberry-pi-os/exercises/lesson02/1/gcrisis/src/extr_kernel.c_kernel2_main.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _btrfsic_submit_bh ## -- Begin function btrfsic_submit_bh
.p2align 4, 0x90
_btrfsic_submit_bh: ## @btrfsic_submit_bh
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
pushq %rax
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdx, %r12
movl %esi, %r14d
movl %edi, %r15d
movq _btrfsic_is_initialized@GOTPCREL(%rip), %rax
cmpl $0, (%rax)
je LBB0_16
## %bb.1:
movq _btrfsic_mutex@GOTPCREL(%rip), %rdi
callq _mutex_lock
movq 24(%r12), %rax
movl (%rax), %edi
callq _btrfsic_dev_state_lookup
movq %rax, %rbx
testq %rax, %rax
je LBB0_7
## %bb.2:
movq _REQ_OP_WRITE@GOTPCREL(%rip), %rax
cmpl %r15d, (%rax)
jne LBB0_7
## %bb.3:
movq (%r12), %r9
testq %r9, %r9
jle LBB0_7
## %bb.4:
movq _BTRFS_BDEV_BLOCKSIZE@GOTPCREL(%rip), %rax
movslq 8(%r12), %rcx
movl (%rax), %r13d
imull %ecx, %r13d
movq 80(%rbx), %rax
movq _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPCREL(%rip), %rdx
movl (%rdx), %edx
testl %edx, (%rax)
je LBB0_6
## %bb.5:
movl 32(%r12), %r10d
leaq L_.str(%rip), %rdi
movl %r15d, %esi
movl %r14d, %edx
movl %r13d, %r8d
xorl %eax, %eax
pushq 24(%r12)
pushq %r10
callq _pr_info
addq $16, %rsp
LBB0_6:
leaq 32(%r12), %rdx
movq %rbx, %rdi
movl %r13d, %esi
movl $1, %ecx
xorl %r8d, %r8d
xorl %r9d, %r9d
pushq %r14
pushq %r12
callq _btrfsic_process_written_block
addq $16, %rsp
jmp LBB0_15
LBB0_7:
testq %rbx, %rbx
je LBB0_15
## %bb.8:
movq _REQ_PREFLUSH@GOTPCREL(%rip), %rax
testl %r14d, (%rax)
je LBB0_15
## %bb.9:
movq 80(%rbx), %rax
movq _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPCREL(%rip), %r13
movl (%r13), %ecx
testl %ecx, (%rax)
je LBB0_11
## %bb.10:
movq 24(%r12), %rcx
leaq L_.str.1(%rip), %rdi
movl %r15d, %esi
movl %r14d, %edx
xorl %eax, %eax
callq _pr_info
LBB0_11:
cmpq $0, 64(%rbx)
je LBB0_12
## %bb.14:
movq %rbx, %rax
addq $8, %rax
xorps %xmm0, %xmm0
movups %xmm0, 48(%rbx)
movq $0, 64(%rbx)
movq (%rbx), %rcx
incq %rcx
movq %rcx, 40(%rbx)
movl %r14d, 8(%rbx)
movq 16(%r12), %rcx
movq %rcx, 32(%rbx)
movl 12(%r12), %ecx
movl %ecx, 24(%rbx)
movq $0, 16(%rbx)
movq %rax, 16(%r12)
movq _btrfsic_bh_end_io@GOTPCREL(%rip), %rax
movl (%rax), %eax
movl %eax, 12(%r12)
jmp LBB0_15
LBB0_12:
movq 80(%rbx), %rax
movq _BTRFSIC_PRINT_MASK_VERBOSE@GOTPCREL(%rip), %rcx
movl (%rcx), %ecx
orl (%r13), %ecx
testl %ecx, (%rax)
je LBB0_15
## %bb.13:
movl 72(%rbx), %esi
leaq L_.str.2(%rip), %rdi
xorl %eax, %eax
callq _pr_info
LBB0_15:
movq _btrfsic_mutex@GOTPCREL(%rip), %rdi
callq _mutex_unlock
LBB0_16:
movl %r15d, %edi
movl %r14d, %esi
movq %r12, %rdx
addq $8, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
jmp _submit_bh ## TAILCALL
.cfi_endproc
## -- End function
.comm _btrfsic_is_initialized,4,2 ## @btrfsic_is_initialized
.comm _btrfsic_mutex,4,2 ## @btrfsic_mutex
.comm _REQ_OP_WRITE,4,2 ## @REQ_OP_WRITE
.comm _BTRFS_BDEV_BLOCKSIZE,4,2 ## @BTRFS_BDEV_BLOCKSIZE
.comm _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH,4,2 ## @BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "submit_bh(op=0x%x,0x%x, blocknr=%llu (bytenr %llu), size=%zu, data=%p, bdev=%p)\n"
.comm _REQ_PREFLUSH,4,2 ## @REQ_PREFLUSH
L_.str.1: ## @.str.1
.asciz "submit_bh(op=0x%x,0x%x FLUSH, bdev=%p)\n"
.comm _BTRFSIC_PRINT_MASK_VERBOSE,4,2 ## @BTRFSIC_PRINT_MASK_VERBOSE
L_.str.2: ## @.str.2
.asciz "btrfsic_submit_bh(%s) with FLUSH but dummy block already in use (ignored)!\n"
.comm _btrfsic_bh_end_io,4,2 ## @btrfsic_bh_end_io
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _btrfsic_submit_bh ; -- Begin function btrfsic_submit_bh
.p2align 2
_btrfsic_submit_bh: ; @btrfsic_submit_bh
.cfi_startproc
; %bb.0:
sub sp, sp, #112
.cfi_def_cfa_offset 112
stp x24, x23, [sp, #48] ; 16-byte Folded Spill
stp x22, x21, [sp, #64] ; 16-byte Folded Spill
stp x20, x19, [sp, #80] ; 16-byte Folded Spill
stp x29, x30, [sp, #96] ; 16-byte Folded Spill
add x29, sp, #96
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x19, x2
mov x20, x1
mov x21, x0
Lloh0:
adrp x8, _btrfsic_is_initialized@GOTPAGE
Lloh1:
ldr x8, [x8, _btrfsic_is_initialized@GOTPAGEOFF]
Lloh2:
ldr w8, [x8]
cbz w8, LBB0_15
; %bb.1:
Lloh3:
adrp x0, _btrfsic_mutex@GOTPAGE
Lloh4:
ldr x0, [x0, _btrfsic_mutex@GOTPAGEOFF]
bl _mutex_lock
ldr x8, [x19, #24]
ldr w0, [x8]
bl _btrfsic_dev_state_lookup
mov x22, x0
Lloh5:
adrp x8, _REQ_OP_WRITE@GOTPAGE
Lloh6:
ldr x8, [x8, _REQ_OP_WRITE@GOTPAGEOFF]
Lloh7:
ldr w8, [x8]
cmp x0, #0
ccmp w8, w21, #0, ne
b.ne LBB0_6
; %bb.2:
ldr x8, [x19]
cmp x8, #1
b.lt LBB0_6
; %bb.3:
Lloh8:
adrp x9, _BTRFS_BDEV_BLOCKSIZE@GOTPAGE
Lloh9:
ldr x9, [x9, _BTRFS_BDEV_BLOCKSIZE@GOTPAGEOFF]
Lloh10:
ldr w10, [x9]
ldrsw x9, [x19, #8]
mul w23, w9, w10
ldr x10, [x22, #80]
ldr w10, [x10]
Lloh11:
adrp x11, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGE
Lloh12:
ldr x11, [x11, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGEOFF]
Lloh13:
ldr w11, [x11]
tst w11, w10
b.eq LBB0_5
; %bb.4:
ldr x10, [x19, #24]
ldr w11, [x19, #32]
stp x11, x10, [sp, #32]
stp x23, x8, [sp, #16]
stp x20, x9, [sp]
Lloh14:
adrp x0, l_.str@PAGE
Lloh15:
add x0, x0, l_.str@PAGEOFF
mov x1, x21
bl _pr_info
LBB0_5:
add x2, x19, #32
mov x0, x22
mov x1, x23
mov w3, #1
mov x4, #0
mov x5, #0
mov x6, x19
mov x7, x20
bl _btrfsic_process_written_block
b LBB0_14
LBB0_6:
cbz x22, LBB0_14
; %bb.7:
Lloh16:
adrp x8, _REQ_PREFLUSH@GOTPAGE
Lloh17:
ldr x8, [x8, _REQ_PREFLUSH@GOTPAGEOFF]
Lloh18:
ldr w8, [x8]
tst w8, w20
b.eq LBB0_14
; %bb.8:
ldr x8, [x22, #80]
ldr w8, [x8]
Lloh19:
adrp x23, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGE
Lloh20:
ldr x23, [x23, _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH@GOTPAGEOFF]
ldr w9, [x23]
tst w9, w8
b.eq LBB0_10
; %bb.9:
ldr x8, [x19, #24]
mov x9, x20
stp x9, x8, [sp]
Lloh21:
adrp x0, l_.str.1@PAGE
Lloh22:
add x0, x0, l_.str.1@PAGEOFF
mov x1, x21
bl _pr_info
LBB0_10:
ldr x8, [x22, #64]
cbz x8, LBB0_12
; %bb.11:
stp xzr, xzr, [x22, #56]
str xzr, [x22, #48]
ldr x8, [x22]
mov x9, x22
str w20, [x9, #8]!
add x8, x8, #1
ldr x10, [x19, #16]
stp x10, x8, [x22, #32]
ldr w8, [x19, #12]
str w8, [x22, #24]
str xzr, [x22, #16]
str x9, [x19, #16]
Lloh23:
adrp x8, _btrfsic_bh_end_io@GOTPAGE
Lloh24:
ldr x8, [x8, _btrfsic_bh_end_io@GOTPAGEOFF]
Lloh25:
ldr w8, [x8]
str w8, [x19, #12]
b LBB0_14
LBB0_12:
ldr x8, [x22, #80]
ldr w8, [x8]
ldr w9, [x23]
Lloh26:
adrp x10, _BTRFSIC_PRINT_MASK_VERBOSE@GOTPAGE
Lloh27:
ldr x10, [x10, _BTRFSIC_PRINT_MASK_VERBOSE@GOTPAGEOFF]
Lloh28:
ldr w10, [x10]
orr w9, w10, w9
tst w9, w8
b.eq LBB0_14
; %bb.13:
ldr w1, [x22, #72]
Lloh29:
adrp x0, l_.str.2@PAGE
Lloh30:
add x0, x0, l_.str.2@PAGEOFF
bl _pr_info
LBB0_14:
Lloh31:
adrp x0, _btrfsic_mutex@GOTPAGE
Lloh32:
ldr x0, [x0, _btrfsic_mutex@GOTPAGEOFF]
bl _mutex_unlock
LBB0_15:
mov x0, x21
mov x1, x20
mov x2, x19
ldp x29, x30, [sp, #96] ; 16-byte Folded Reload
ldp x20, x19, [sp, #80] ; 16-byte Folded Reload
ldp x22, x21, [sp, #64] ; 16-byte Folded Reload
ldp x24, x23, [sp, #48] ; 16-byte Folded Reload
add sp, sp, #112
b _submit_bh
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.loh AdrpLdrGot Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10
.loh AdrpAdd Lloh14, Lloh15
.loh AdrpLdrGotLdr Lloh16, Lloh17, Lloh18
.loh AdrpLdrGot Lloh19, Lloh20
.loh AdrpAdd Lloh21, Lloh22
.loh AdrpLdrGotLdr Lloh23, Lloh24, Lloh25
.loh AdrpLdrGotLdr Lloh26, Lloh27, Lloh28
.loh AdrpAdd Lloh29, Lloh30
.loh AdrpLdrGot Lloh31, Lloh32
.cfi_endproc
; -- End function
.comm _btrfsic_is_initialized,4,2 ; @btrfsic_is_initialized
.comm _btrfsic_mutex,4,2 ; @btrfsic_mutex
.comm _REQ_OP_WRITE,4,2 ; @REQ_OP_WRITE
.comm _BTRFS_BDEV_BLOCKSIZE,4,2 ; @BTRFS_BDEV_BLOCKSIZE
.comm _BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH,4,2 ; @BTRFSIC_PRINT_MASK_SUBMIT_BIO_BH
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "submit_bh(op=0x%x,0x%x, blocknr=%llu (bytenr %llu), size=%zu, data=%p, bdev=%p)\n"
.comm _REQ_PREFLUSH,4,2 ; @REQ_PREFLUSH
l_.str.1: ; @.str.1
.asciz "submit_bh(op=0x%x,0x%x FLUSH, bdev=%p)\n"
.comm _BTRFSIC_PRINT_MASK_VERBOSE,4,2 ; @BTRFSIC_PRINT_MASK_VERBOSE
l_.str.2: ; @.str.2
.asciz "btrfsic_submit_bh(%s) with FLUSH but dummy block already in use (ignored)!\n"
.comm _btrfsic_bh_end_io,4,2 ; @btrfsic_bh_end_io
.subsections_via_symbols
| AnghaBench/linux/fs/btrfs/extr_check-integrity.c_submit_bh.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function if_sdio_remove
_if_sdio_remove: ## @if_sdio_remove
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movq %rdi, %r14
callq _sdio_get_drvdata
movq %rax, %rbx
movq %r14, %rdi
callq _pm_runtime_get_noresume
movq _user_rmmod@GOTPCREL(%rip), %rax
cmpq $0, (%rax)
je LBB0_4
## %bb.1:
movq (%rbx), %rax
movq _MODEL_8688@GOTPCREL(%rip), %rcx
cmpq (%rcx), %rax
jne LBB0_4
## %bb.2:
leaq -24(%rbp), %r14
movq %r14, %rdi
xorl %esi, %esi
movl $4, %edx
callq _memset
leaq L_.str(%rip), %rdi
callq _lbs_deb_sdio
movl 28(%rbx), %edi
movq _CMD_FUNC_SHUTDOWN@GOTPCREL(%rip), %rax
movl (%rax), %esi
movq _lbs_cmd_copyback@GOTPCREL(%rip), %rax
movl (%rax), %r8d
movq %r14, %rdx
movl $4, %ecx
movq %r14, %r9
callq ___lbs_cmd
testq %rax, %rax
je LBB0_4
## %bb.3:
leaq L_.str.1(%rip), %rdi
callq _pr_alert
LBB0_4:
leaq L_.str.2(%rip), %rdi
callq _lbs_deb_sdio
movl 28(%rbx), %edi
callq _lbs_stop_card
movl 28(%rbx), %edi
callq _lbs_remove_card
movl 24(%rbx), %edi
callq _destroy_workqueue
.p2align 4, 0x90
LBB0_6: ## =>This Inner Loop Header: Depth=1
movq 16(%rbx), %rdi
testq %rdi, %rdi
je LBB0_7
## %bb.5: ## in Loop: Header=BB0_6 Depth=1
movq 8(%rdi), %rax
movq %rax, 16(%rbx)
callq _kfree
jmp LBB0_6
LBB0_7:
movq %rbx, %rdi
callq _kfree
addq $16, %rsp
popq %rbx
popq %r14
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _user_rmmod,8,3 ## @user_rmmod
.comm _MODEL_8688,8,3 ## @MODEL_8688
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "send function SHUTDOWN command\n"
.comm _CMD_FUNC_SHUTDOWN,4,2 ## @CMD_FUNC_SHUTDOWN
.comm _lbs_cmd_copyback,4,2 ## @lbs_cmd_copyback
L_.str.1: ## @.str.1
.asciz "CMD_FUNC_SHUTDOWN cmd failed\n"
L_.str.2: ## @.str.2
.asciz "call remove card\n"
.no_dead_strip _if_sdio_remove
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function if_sdio_remove
_if_sdio_remove: ; @if_sdio_remove
.cfi_startproc
; %bb.0:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x20, x0
bl _sdio_get_drvdata
mov x19, x0
mov x0, x20
bl _pm_runtime_get_noresume
Lloh0:
adrp x8, _user_rmmod@GOTPAGE
Lloh1:
ldr x8, [x8, _user_rmmod@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
cbz x8, LBB0_4
; %bb.1:
ldr x8, [x19]
Lloh3:
adrp x9, _MODEL_8688@GOTPAGE
Lloh4:
ldr x9, [x9, _MODEL_8688@GOTPAGEOFF]
Lloh5:
ldr x9, [x9]
cmp x8, x9
b.ne LBB0_4
; %bb.2:
add x0, sp, #8
mov w1, #0
mov w2, #4
bl _memset
Lloh6:
adrp x0, l_.str@PAGE
Lloh7:
add x0, x0, l_.str@PAGEOFF
bl _lbs_deb_sdio
ldr w0, [x19, #28]
Lloh8:
adrp x8, _CMD_FUNC_SHUTDOWN@GOTPAGE
Lloh9:
ldr x8, [x8, _CMD_FUNC_SHUTDOWN@GOTPAGEOFF]
Lloh10:
ldr w1, [x8]
Lloh11:
adrp x8, _lbs_cmd_copyback@GOTPAGE
Lloh12:
ldr x8, [x8, _lbs_cmd_copyback@GOTPAGEOFF]
Lloh13:
ldr w4, [x8]
add x2, sp, #8
add x5, sp, #8
mov w3, #4
bl ___lbs_cmd
cbz x0, LBB0_4
; %bb.3:
Lloh14:
adrp x0, l_.str.1@PAGE
Lloh15:
add x0, x0, l_.str.1@PAGEOFF
bl _pr_alert
LBB0_4:
Lloh16:
adrp x0, l_.str.2@PAGE
Lloh17:
add x0, x0, l_.str.2@PAGEOFF
bl _lbs_deb_sdio
ldr w0, [x19, #28]
bl _lbs_stop_card
ldr w0, [x19, #28]
bl _lbs_remove_card
ldr w0, [x19, #24]
bl _destroy_workqueue
ldr x0, [x19, #16]
cbz x0, LBB0_6
LBB0_5: ; =>This Inner Loop Header: Depth=1
ldr x8, [x0, #8]
str x8, [x19, #16]
bl _kfree
ldr x0, [x19, #16]
cbnz x0, LBB0_5
LBB0_6:
mov x0, x19
bl _kfree
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #48
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10
.loh AdrpAdd Lloh6, Lloh7
.loh AdrpAdd Lloh14, Lloh15
.loh AdrpAdd Lloh16, Lloh17
.cfi_endproc
; -- End function
.comm _user_rmmod,8,3 ; @user_rmmod
.comm _MODEL_8688,8,3 ; @MODEL_8688
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "send function SHUTDOWN command\n"
.comm _CMD_FUNC_SHUTDOWN,4,2 ; @CMD_FUNC_SHUTDOWN
.comm _lbs_cmd_copyback,4,2 ; @lbs_cmd_copyback
l_.str.1: ; @.str.1
.asciz "CMD_FUNC_SHUTDOWN cmd failed\n"
l_.str.2: ; @.str.2
.asciz "call remove card\n"
.no_dead_strip _if_sdio_remove
.subsections_via_symbols
| AnghaBench/linux/drivers/net/wireless/marvell/libertas/extr_if_sdio.c_if_sdio_remove.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function sky2_flow
_sky2_flow: ## @sky2_flow
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
testl %edi, %edi
movq _FC_BOTH@GOTPCREL(%rip), %rax
cmoveq _FC_TX@GOTPCREL(%rip), %rax
movq _FC_RX@GOTPCREL(%rip), %rcx
cmoveq _FC_NONE@GOTPCREL(%rip), %rcx
testl %esi, %esi
cmovneq %rax, %rcx
movl (%rcx), %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _FC_BOTH,4,2 ## @FC_BOTH
.comm _FC_RX,4,2 ## @FC_RX
.comm _FC_TX,4,2 ## @FC_TX
.comm _FC_NONE,4,2 ## @FC_NONE
.no_dead_strip _sky2_flow
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function sky2_flow
_sky2_flow: ; @sky2_flow
.cfi_startproc
; %bb.0:
Lloh0:
adrp x8, _FC_TX@GOTPAGE
Lloh1:
ldr x8, [x8, _FC_TX@GOTPAGEOFF]
Lloh2:
adrp x9, _FC_BOTH@GOTPAGE
Lloh3:
ldr x9, [x9, _FC_BOTH@GOTPAGEOFF]
cmp w0, #0
Lloh4:
adrp x10, _FC_NONE@GOTPAGE
Lloh5:
ldr x10, [x10, _FC_NONE@GOTPAGEOFF]
Lloh6:
adrp x11, _FC_RX@GOTPAGE
Lloh7:
ldr x11, [x11, _FC_RX@GOTPAGEOFF]
csel x8, x8, x9, eq
csel x9, x10, x11, eq
cmp w1, #0
csel x8, x9, x8, eq
ldr w0, [x8]
ret
.loh AdrpLdrGot Lloh6, Lloh7
.loh AdrpLdrGot Lloh4, Lloh5
.loh AdrpLdrGot Lloh2, Lloh3
.loh AdrpLdrGot Lloh0, Lloh1
.cfi_endproc
; -- End function
.comm _FC_BOTH,4,2 ; @FC_BOTH
.comm _FC_RX,4,2 ; @FC_RX
.comm _FC_TX,4,2 ; @FC_TX
.comm _FC_NONE,4,2 ; @FC_NONE
.no_dead_strip _sky2_flow
.subsections_via_symbols
| AnghaBench/linux/drivers/net/ethernet/marvell/extr_sky2.c_sky2_flow.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _same_symbol ## -- Begin function same_symbol
.p2align 4, 0x90
_same_symbol: ## @same_symbol
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
cmpq %rsi, %rdi
je LBB0_10
## %bb.1:
movq (%rdi), %rcx
movq _MULTITERMINAL@GOTPCREL(%rip), %rdx
xorl %eax, %eax
cmpq (%rdx), %rcx
jne LBB0_9
## %bb.2:
cmpq %rcx, (%rsi)
jne LBB0_9
## %bb.3:
movl 8(%rdi), %ecx
cmpl 8(%rsi), %ecx
jne LBB0_9
## %bb.4:
testl %ecx, %ecx
jle LBB0_10
## %bb.5:
movq 16(%rdi), %r8
movq 16(%rsi), %rsi
xorl %eax, %eax
xorl %edi, %edi
.p2align 4, 0x90
LBB0_6: ## =>This Inner Loop Header: Depth=1
movq (%r8,%rdi,8), %rdx
cmpq (%rsi,%rdi,8), %rdx
jne LBB0_9
## %bb.7: ## in Loop: Header=BB0_6 Depth=1
incq %rdi
cmpq %rdi, %rcx
jne LBB0_6
LBB0_10:
movl $1, %eax
LBB0_9:
## kill: def $eax killed $eax killed $rax
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _MULTITERMINAL,8,3 ## @MULTITERMINAL
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _same_symbol ; -- Begin function same_symbol
.p2align 2
_same_symbol: ; @same_symbol
.cfi_startproc
; %bb.0:
cmp x0, x1
b.eq LBB0_10
; %bb.1:
ldr x8, [x0]
Lloh0:
adrp x9, _MULTITERMINAL@GOTPAGE
Lloh1:
ldr x9, [x9, _MULTITERMINAL@GOTPAGEOFF]
Lloh2:
ldr x9, [x9]
cmp x8, x9
b.ne LBB0_9
; %bb.2:
ldr x9, [x1]
cmp x9, x8
b.ne LBB0_9
; %bb.3:
ldr w8, [x0, #8]
ldr w9, [x1, #8]
cmp w8, w9
b.ne LBB0_9
; %bb.4:
cmp w8, #1
b.lt LBB0_10
; %bb.5:
ldr x9, [x0, #16]
ldr x10, [x1, #16]
mov w0, #1
LBB0_6: ; =>This Inner Loop Header: Depth=1
ldr x11, [x9]
ldr x12, [x10]
cmp x11, x12
b.ne LBB0_9
; %bb.7: ; in Loop: Header=BB0_6 Depth=1
add x10, x10, #8
add x9, x9, #8
subs x8, x8, #1
b.ne LBB0_6
; %bb.8:
ret
LBB0_9:
mov w0, #0
ret
LBB0_10:
mov w0, #1
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _MULTITERMINAL,8,3 ; @MULTITERMINAL
.subsections_via_symbols
| AnghaBench/sqlcipher/tool/extr_lemon.c_same_symbol.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.section __TEXT,__literal4,4byte_literals
.p2align 2 ## -- Begin function parallel_0
LCPI0_0:
.long 0x00000000 ## float 0
.section __TEXT,__text,regular,pure_instructions
.globl _parallel_0
.p2align 4, 0x90
_parallel_0: ## @parallel_0
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movb $1, %r8b
xorl %eax, %eax
.p2align 4, 0x90
LBB0_1: ## =>This Inner Loop Header: Depth=1
movq %rax, %rcx
shlq $9, %rcx
movss 44(%rsi), %xmm13 ## xmm13 = mem[0],zero,zero,zero
subss 44(%rdi,%rcx), %xmm13
movss 48(%rsi), %xmm14 ## xmm14 = mem[0],zero,zero,zero
subss 48(%rdi,%rcx), %xmm14
movss 76(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero
subss 76(%rdi,%rcx), %xmm9
movss 80(%rsi), %xmm8 ## xmm8 = mem[0],zero,zero,zero
subss 80(%rdi,%rcx), %xmm8
movss 84(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 84(%rdi,%rcx), %xmm2
movss 88(%rsi), %xmm15 ## xmm15 = mem[0],zero,zero,zero
subss 88(%rdi,%rcx), %xmm15
movss 108(%rsi), %xmm11 ## xmm11 = mem[0],zero,zero,zero
subss 108(%rdi,%rcx), %xmm11
movss 112(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 112(%rdi,%rcx), %xmm3
movss 196(%rsi), %xmm12 ## xmm12 = mem[0],zero,zero,zero
subss 196(%rdi,%rcx), %xmm12
movss 200(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero
subss 200(%rdi,%rcx), %xmm6
movss 212(%rsi), %xmm10 ## xmm10 = mem[0],zero,zero,zero
subss 212(%rdi,%rcx), %xmm10
movss 216(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 216(%rdi,%rcx), %xmm0
movss 252(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero
subss 252(%rdi,%rcx), %xmm4
movss 256(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 256(%rdi,%rcx), %xmm1
movss 316(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero
subss 316(%rdi,%rcx), %xmm7
movss 320(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 320(%rdi,%rcx), %xmm5
mulss %xmm3, %xmm3
mulss %xmm11, %xmm11
addss %xmm3, %xmm11
movss %xmm11, -24(%rbp) ## 4-byte Spill
movss 380(%rsi), %xmm11 ## xmm11 = mem[0],zero,zero,zero
subss 380(%rdi,%rcx), %xmm11
mulss %xmm15, %xmm15
mulss %xmm2, %xmm2
addss %xmm15, %xmm2
movss 384(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 384(%rdi,%rcx), %xmm3
mulss %xmm6, %xmm6
mulss %xmm12, %xmm12
addss %xmm6, %xmm12
movss 444(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero
subss 444(%rdi,%rcx), %xmm6
mulss %xmm5, %xmm5
mulss %xmm7, %xmm7
addss %xmm5, %xmm7
movss %xmm7, -8(%rbp) ## 4-byte Spill
movss 448(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 448(%rdi,%rcx), %xmm5
mulss %xmm3, %xmm3
mulss %xmm11, %xmm11
addss %xmm3, %xmm11
movss %xmm11, -40(%rbp) ## 4-byte Spill
movss 452(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero
subss 452(%rdi,%rcx), %xmm7
mulss %xmm5, %xmm5
mulss %xmm6, %xmm6
addss %xmm5, %xmm6
movss 456(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 456(%rdi,%rcx), %xmm3
mulss %xmm3, %xmm3
mulss %xmm7, %xmm7
addss %xmm3, %xmm7
movss 420(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 420(%rdi,%rcx), %xmm5
addss %xmm6, %xmm7
movss %xmm7, -52(%rbp) ## 4-byte Spill
movss 424(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 424(%rdi,%rcx), %xmm3
mulss %xmm3, %xmm3
mulss %xmm5, %xmm5
addss %xmm3, %xmm5
movss %xmm5, -60(%rbp) ## 4-byte Spill
movss 356(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 356(%rdi,%rcx), %xmm3
mulss %xmm1, %xmm1
mulss %xmm4, %xmm4
addss %xmm1, %xmm4
movss 360(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 360(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm3, %xmm3
addss %xmm1, %xmm3
movss 460(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 460(%rdi,%rcx), %xmm1
mulss %xmm0, %xmm0
mulss %xmm10, %xmm10
addss %xmm0, %xmm10
movss 464(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 464(%rdi,%rcx), %xmm0
mulss %xmm0, %xmm0
mulss %xmm1, %xmm1
addss %xmm0, %xmm1
movss %xmm1, -36(%rbp) ## 4-byte Spill
movss 236(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 236(%rdi,%rcx), %xmm1
mulss %xmm8, %xmm8
mulss %xmm9, %xmm9
addss %xmm8, %xmm9
movss 240(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 240(%rdi,%rcx), %xmm0
addss %xmm2, %xmm9
movss %xmm9, -48(%rbp) ## 4-byte Spill
movss 436(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 436(%rdi,%rcx), %xmm2
mulss %xmm0, %xmm0
mulss %xmm1, %xmm1
addss %xmm0, %xmm1
movss %xmm1, -56(%rbp) ## 4-byte Spill
movss 440(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 440(%rdi,%rcx), %xmm0
mulss %xmm14, %xmm14
mulss %xmm13, %xmm13
addss %xmm14, %xmm13
movss 476(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero
subss 476(%rdi,%rcx), %xmm9
mulss %xmm0, %xmm0
mulss %xmm2, %xmm2
addss %xmm0, %xmm2
movss %xmm2, -44(%rbp) ## 4-byte Spill
movss 480(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 480(%rdi,%rcx), %xmm0
movss 500(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero
subss 500(%rdi,%rcx), %xmm7
movss 504(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 504(%rdi,%rcx), %xmm1
mulss %xmm0, %xmm0
mulss %xmm9, %xmm9
addss %xmm0, %xmm9
mulss %xmm1, %xmm1
mulss %xmm7, %xmm7
addss %xmm1, %xmm7
movss 92(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 92(%rdi,%rcx), %xmm1
movss 96(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 96(%rdi,%rcx), %xmm0
mulss %xmm0, %xmm0
mulss %xmm1, %xmm1
addss %xmm0, %xmm1
movss %xmm1, -28(%rbp) ## 4-byte Spill
movss 148(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 148(%rdi,%rcx), %xmm2
movss 152(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 152(%rdi,%rcx), %xmm1
movss 348(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 348(%rdi,%rcx), %xmm0
mulss %xmm1, %xmm1
mulss %xmm2, %xmm2
addss %xmm1, %xmm2
movss 352(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 352(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm0, %xmm0
addss %xmm1, %xmm0
addss %xmm3, %xmm0
movss 340(%rsi), %xmm15 ## xmm15 = mem[0],zero,zero,zero
subss 340(%rdi,%rcx), %xmm15
movss 344(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 344(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm15, %xmm15
addss %xmm1, %xmm15
movss 52(%rsi), %xmm11 ## xmm11 = mem[0],zero,zero,zero
subss 52(%rdi,%rcx), %xmm11
movss 56(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 56(%rdi,%rcx), %xmm1
movss 60(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 60(%rdi,%rcx), %xmm3
mulss %xmm1, %xmm1
mulss %xmm11, %xmm11
addss %xmm1, %xmm11
movss 64(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 64(%rdi,%rcx), %xmm1
addss %xmm13, %xmm11
mulss %xmm1, %xmm1
mulss %xmm3, %xmm3
addss %xmm1, %xmm3
movss %xmm3, -20(%rbp) ## 4-byte Spill
movss 204(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 204(%rdi,%rcx), %xmm1
movss 208(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 208(%rdi,%rcx), %xmm3
mulss %xmm3, %xmm3
mulss %xmm1, %xmm1
addss %xmm3, %xmm1
movss 188(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 188(%rdi,%rcx), %xmm5
addss %xmm10, %xmm1
movss 192(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 192(%rdi,%rcx), %xmm3
mulss %xmm3, %xmm3
mulss %xmm5, %xmm5
addss %xmm3, %xmm5
addss %xmm12, %xmm5
addss %xmm1, %xmm5
movss %xmm5, -32(%rbp) ## 4-byte Spill
movss 36(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 36(%rdi,%rcx), %xmm3
movss 40(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 40(%rdi,%rcx), %xmm1
movss 260(%rsi), %xmm10 ## xmm10 = mem[0],zero,zero,zero
subss 260(%rdi,%rcx), %xmm10
mulss %xmm1, %xmm1
mulss %xmm3, %xmm3
addss %xmm1, %xmm3
movss %xmm3, -4(%rbp) ## 4-byte Spill
movss 264(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 264(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm10, %xmm10
addss %xmm1, %xmm10
addss %xmm4, %xmm10
movss 372(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 372(%rdi,%rcx), %xmm3
movss 376(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 376(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm3, %xmm3
addss %xmm1, %xmm3
movss 300(%rsi), %xmm14 ## xmm14 = mem[0],zero,zero,zero
subss 300(%rdi,%rcx), %xmm14
movss 396(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero
subss 396(%rdi,%rcx), %xmm4
movss 400(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 400(%rdi,%rcx), %xmm5
mulss %xmm5, %xmm5
mulss %xmm4, %xmm4
addss %xmm5, %xmm4
movss 304(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 304(%rdi,%rcx), %xmm5
movss 404(%rsi), %xmm8 ## xmm8 = mem[0],zero,zero,zero
subss 404(%rdi,%rcx), %xmm8
movss 408(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 408(%rdi,%rcx), %xmm1
mulss %xmm5, %xmm5
mulss %xmm14, %xmm14
addss %xmm5, %xmm14
mulss %xmm1, %xmm1
mulss %xmm8, %xmm8
addss %xmm1, %xmm8
addss %xmm4, %xmm8
movss 164(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero
subss 164(%rdi,%rcx), %xmm4
movss 168(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 168(%rdi,%rcx), %xmm1
movss 308(%rsi), %xmm13 ## xmm13 = mem[0],zero,zero,zero
subss 308(%rdi,%rcx), %xmm13
mulss %xmm1, %xmm1
mulss %xmm4, %xmm4
addss %xmm1, %xmm4
movss %xmm4, -16(%rbp) ## 4-byte Spill
movss 312(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 312(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm13, %xmm13
addss %xmm1, %xmm13
addss %xmm14, %xmm13
movss 364(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero
subss 364(%rdi,%rcx), %xmm4
movss 368(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 368(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm4, %xmm4
addss %xmm1, %xmm4
movss 140(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 140(%rdi,%rcx), %xmm5
addss %xmm3, %xmm4
movss 144(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 144(%rdi,%rcx), %xmm1
addss %xmm0, %xmm4
mulss %xmm1, %xmm1
mulss %xmm5, %xmm5
addss %xmm1, %xmm5
addss %xmm2, %xmm5
movss %xmm5, -12(%rbp) ## 4-byte Spill
movss 324(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 324(%rdi,%rcx), %xmm1
movss 328(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 328(%rdi,%rcx), %xmm0
movss 484(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 484(%rdi,%rcx), %xmm2
mulss %xmm0, %xmm0
mulss %xmm1, %xmm1
addss %xmm0, %xmm1
movss 488(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 488(%rdi,%rcx), %xmm0
addss -8(%rbp), %xmm1 ## 4-byte Folded Reload
mulss %xmm0, %xmm0
mulss %xmm2, %xmm2
addss %xmm0, %xmm2
addss %xmm9, %xmm2
movss 12(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 12(%rdi,%rcx), %xmm0
movss 16(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 16(%rdi,%rcx), %xmm3
movss 116(%rsi), %xmm12 ## xmm12 = mem[0],zero,zero,zero
subss 116(%rdi,%rcx), %xmm12
mulss %xmm3, %xmm3
mulss %xmm0, %xmm0
addss %xmm3, %xmm0
movss 120(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 120(%rdi,%rcx), %xmm3
mulss %xmm3, %xmm3
mulss %xmm12, %xmm12
addss %xmm3, %xmm12
addss -24(%rbp), %xmm12 ## 4-byte Folded Reload
movss 492(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero
subss 492(%rdi,%rcx), %xmm6
movss 496(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 496(%rdi,%rcx), %xmm3
mulss %xmm3, %xmm3
mulss %xmm6, %xmm6
addss %xmm3, %xmm6
movss 20(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 20(%rdi,%rcx), %xmm3
addss %xmm7, %xmm6
movss 24(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero
subss 24(%rdi,%rcx), %xmm7
addss %xmm2, %xmm6
mulss %xmm7, %xmm7
mulss %xmm3, %xmm3
addss %xmm7, %xmm3
addss %xmm0, %xmm3
movss 4(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 4(%rdi,%rcx), %xmm2
movss 276(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero
subss 276(%rdi,%rcx), %xmm9
movss 280(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero
subss 280(%rdi,%rcx), %xmm7
mulss %xmm7, %xmm7
mulss %xmm9, %xmm9
addss %xmm7, %xmm9
movss 8(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 8(%rdi,%rcx), %xmm0
movss 332(%rsi), %xmm7 ## xmm7 = mem[0],zero,zero,zero
subss 332(%rdi,%rcx), %xmm7
movss 336(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 336(%rdi,%rcx), %xmm5
mulss %xmm0, %xmm0
mulss %xmm2, %xmm2
addss %xmm0, %xmm2
mulss %xmm5, %xmm5
mulss %xmm7, %xmm7
addss %xmm5, %xmm7
addss %xmm15, %xmm7
movss 172(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 172(%rdi,%rcx), %xmm0
addss %xmm1, %xmm7
movss 176(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 176(%rdi,%rcx), %xmm1
addss %xmm4, %xmm7
mulss %xmm1, %xmm1
mulss %xmm0, %xmm0
addss %xmm1, %xmm0
movss (%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss (%rdi,%rcx), %xmm1
movss 180(%rsi), %xmm14 ## xmm14 = mem[0],zero,zero,zero
subss 180(%rdi,%rcx), %xmm14
mulss %xmm1, %xmm1
addss LCPI0_0(%rip), %xmm1
addss %xmm2, %xmm1
movss 184(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 184(%rdi,%rcx), %xmm2
addss %xmm3, %xmm1
mulss %xmm2, %xmm2
mulss %xmm14, %xmm14
addss %xmm2, %xmm14
addss %xmm0, %xmm14
movss 268(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 268(%rdi,%rcx), %xmm3
movss 272(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 272(%rdi,%rcx), %xmm0
mulss %xmm0, %xmm0
mulss %xmm3, %xmm3
addss %xmm0, %xmm3
addss %xmm9, %xmm3
addss %xmm10, %xmm3
movss 388(%rsi), %xmm9 ## xmm9 = mem[0],zero,zero,zero
subss 388(%rdi,%rcx), %xmm9
movss 392(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 392(%rdi,%rcx), %xmm0
mulss %xmm0, %xmm0
mulss %xmm9, %xmm9
addss %xmm0, %xmm9
movss 28(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 28(%rdi,%rcx), %xmm0
addss -40(%rbp), %xmm9 ## 4-byte Folded Reload
movss 32(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 32(%rdi,%rcx), %xmm2
addss %xmm8, %xmm9
mulss %xmm2, %xmm2
mulss %xmm0, %xmm0
addss %xmm2, %xmm0
addss -4(%rbp), %xmm0 ## 4-byte Folded Reload
movss 132(%rsi), %xmm15 ## xmm15 = mem[0],zero,zero,zero
subss 132(%rdi,%rcx), %xmm15
addss %xmm11, %xmm0
movss 136(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 136(%rdi,%rcx), %xmm2
addss %xmm1, %xmm0
mulss %xmm2, %xmm2
mulss %xmm15, %xmm15
addss %xmm2, %xmm15
movss 468(%rsi), %xmm8 ## xmm8 = mem[0],zero,zero,zero
subss 468(%rdi,%rcx), %xmm8
movss 472(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 472(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm8, %xmm8
addss %xmm1, %xmm8
addss -36(%rbp), %xmm8 ## 4-byte Folded Reload
addss -52(%rbp), %xmm8 ## 4-byte Folded Reload
addss %xmm6, %xmm8
movss 292(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero
subss 292(%rdi,%rcx), %xmm4
movss 296(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 296(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm4, %xmm4
addss %xmm1, %xmm4
movss 100(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 100(%rdi,%rcx), %xmm2
movss 220(%rsi), %xmm10 ## xmm10 = mem[0],zero,zero,zero
subss 220(%rdi,%rcx), %xmm10
movss 224(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 224(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm10, %xmm10
addss %xmm1, %xmm10
movss 104(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 104(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm2, %xmm2
addss %xmm1, %xmm2
addss -28(%rbp), %xmm2 ## 4-byte Folded Reload
addss %xmm12, %xmm2
movss 68(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 68(%rdi,%rcx), %xmm1
movss 72(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 72(%rdi,%rcx), %xmm5
mulss %xmm5, %xmm5
mulss %xmm1, %xmm1
addss %xmm5, %xmm1
addss -20(%rbp), %xmm1 ## 4-byte Folded Reload
addss -48(%rbp), %xmm1 ## 4-byte Folded Reload
addss %xmm2, %xmm1
movss 428(%rsi), %xmm2 ## xmm2 = mem[0],zero,zero,zero
subss 428(%rdi,%rcx), %xmm2
addss %xmm0, %xmm1
movss 432(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 432(%rdi,%rcx), %xmm0
mulss %xmm0, %xmm0
mulss %xmm2, %xmm2
addss %xmm0, %xmm2
addss -44(%rbp), %xmm2 ## 4-byte Folded Reload
movss 284(%rsi), %xmm5 ## xmm5 = mem[0],zero,zero,zero
subss 284(%rdi,%rcx), %xmm5
movss 288(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 288(%rdi,%rcx), %xmm0
mulss %xmm0, %xmm0
mulss %xmm5, %xmm5
addss %xmm0, %xmm5
addss %xmm4, %xmm5
addss %xmm13, %xmm5
movss 228(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero
subss 228(%rdi,%rcx), %xmm4
addss %xmm3, %xmm5
movss 232(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 232(%rdi,%rcx), %xmm3
addss %xmm7, %xmm5
movss 244(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 244(%rdi,%rcx), %xmm0
mulss %xmm3, %xmm3
mulss %xmm4, %xmm4
addss %xmm3, %xmm4
movss 248(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 248(%rdi,%rcx), %xmm3
addss %xmm10, %xmm4
mulss %xmm3, %xmm3
mulss %xmm0, %xmm0
addss %xmm3, %xmm0
addss -56(%rbp), %xmm0 ## 4-byte Folded Reload
movss 156(%rsi), %xmm6 ## xmm6 = mem[0],zero,zero,zero
subss 156(%rdi,%rcx), %xmm6
addss %xmm4, %xmm0
movss 160(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 160(%rdi,%rcx), %xmm3
addss -32(%rbp), %xmm0 ## 4-byte Folded Reload
mulss %xmm3, %xmm3
mulss %xmm6, %xmm6
addss %xmm3, %xmm6
addss -16(%rbp), %xmm6 ## 4-byte Folded Reload
movss 124(%rsi), %xmm3 ## xmm3 = mem[0],zero,zero,zero
subss 124(%rdi,%rcx), %xmm3
addss %xmm14, %xmm6
movss 128(%rsi), %xmm4 ## xmm4 = mem[0],zero,zero,zero
subss 128(%rdi,%rcx), %xmm4
mulss %xmm4, %xmm4
mulss %xmm3, %xmm3
addss %xmm4, %xmm3
addss %xmm15, %xmm3
addss -12(%rbp), %xmm3 ## 4-byte Folded Reload
addss %xmm6, %xmm3
addss %xmm0, %xmm3
movss 412(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
subss 412(%rdi,%rcx), %xmm0
addss %xmm1, %xmm3
movss 416(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 416(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
mulss %xmm0, %xmm0
addss %xmm1, %xmm0
addss -60(%rbp), %xmm0 ## 4-byte Folded Reload
addss %xmm2, %xmm0
addss %xmm9, %xmm0
addss %xmm8, %xmm0
addss %xmm5, %xmm0
addss %xmm3, %xmm0
movss 508(%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
subss 508(%rdi,%rcx), %xmm1
mulss %xmm1, %xmm1
addss %xmm0, %xmm1
movss %xmm1, (%rdx,%rax,4)
movl $1, %eax
testb $1, %r8b
movl $0, %r8d
jne LBB0_1
## %bb.2:
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__literal4,4byte_literals
.p2align 2 ## -- Begin function epilogue
LCPI1_0:
.long 0x7f800000 ## float +Inf
.section __TEXT,__text,regular,pure_instructions
.globl _epilogue
.p2align 4, 0x90
_epilogue: ## @epilogue
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
subq $32, %rsp
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -8(%rbp)
movabsq $9187343241974906880, %rax ## imm = 0x7F8000007F800000
movq %rax, -16(%rbp)
movw $514, -23(%rbp) ## imm = 0x202
movb $2, -21(%rbp)
movss (%rdx), %xmm1 ## xmm1 = mem[0],zero,zero,zero
movss LCPI1_0(%rip), %xmm0 ## xmm0 = mem[0],zero,zero,zero
ucomiss %xmm1, %xmm0
leaq -23(%rbp), %rax
cmovaq %rdi, %rax
movb (%rax), %al
minss %xmm0, %xmm1
movb %al, -23(%rbp)
movss %xmm1, -20(%rbp)
xorps %xmm2, %xmm2
maxss %xmm2, %xmm1
xorl %eax, %eax
ucomiss %xmm1, %xmm0
seta %al
movaps %xmm0, %xmm2
maxss %xmm1, %xmm2
movss 4(%rdx), %xmm1 ## xmm1 = mem[0],zero,zero,zero
ucomiss %xmm1, %xmm2
jbe LBB1_1
## %bb.2:
leaq 1(%rdi), %rdx
jmp LBB1_3
LBB1_1:
leaq (%rax,%rbp), %rdx
addq $-23, %rdx
movss -20(%rbp,%rax,4), %xmm1 ## xmm1 = mem[0],zero,zero,zero
LBB1_3:
movb (%rdx), %r10b
movss %xmm1, -20(%rbp,%rax,4)
movss -20(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero
movss -16(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero
xorps %xmm3, %xmm3
maxss %xmm3, %xmm1
xorl %edx, %edx
ucomiss %xmm1, %xmm2
seta %dl
movb %r10b, -23(%rbp,%rax)
maxss %xmm1, %xmm2
ucomiss %xmm2, %xmm0
movl $2, %eax
cmovbeq %rdx, %rax
maxss %xmm2, %xmm0
movss (%rsi), %xmm1 ## xmm1 = mem[0],zero,zero,zero
ucomiss %xmm1, %xmm0
jbe LBB1_4
## %bb.5:
leaq 2(%rdi), %rdx
jmp LBB1_6
LBB1_4:
leaq (%rax,%rbp), %rdx
addq $-23, %rdx
movss -20(%rbp,%rax,4), %xmm1 ## xmm1 = mem[0],zero,zero,zero
LBB1_6:
movb (%rdx), %dl
movb %dl, -23(%rbp,%rax)
movss %xmm1, -20(%rbp,%rax,4)
movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero
movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero
xorps %xmm2, %xmm2
maxss %xmm2, %xmm0
xorl %edx, %edx
ucomiss %xmm0, %xmm1
seta %dl
movss -12(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero
maxss %xmm0, %xmm1
ucomiss %xmm1, %xmm2
movl $2, %eax
cmovbeq %rdx, %rax
maxss %xmm1, %xmm2
movss 4(%rsi), %xmm0 ## xmm0 = mem[0],zero,zero,zero
ucomiss %xmm0, %xmm2
jbe LBB1_7
## %bb.8:
leaq 3(%rdi), %rdx
jmp LBB1_9
LBB1_7:
leaq (%rax,%rbp), %rdx
addq $-23, %rdx
movss -20(%rbp,%rax,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero
LBB1_9:
movb (%rdx), %dl
movb %dl, -23(%rbp,%rax)
movss %xmm0, -20(%rbp,%rax,4)
movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero
movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero
xorps %xmm2, %xmm2
maxss %xmm2, %xmm0
xorl %edx, %edx
ucomiss %xmm0, %xmm1
seta %dl
movss -12(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero
maxss %xmm0, %xmm1
ucomiss %xmm1, %xmm2
movl $2, %eax
cmovbeq %rdx, %rax
maxss %xmm1, %xmm2
movss (%r8), %xmm0 ## xmm0 = mem[0],zero,zero,zero
ucomiss %xmm0, %xmm2
jbe LBB1_10
## %bb.11:
leaq 4(%rdi), %rdx
jmp LBB1_12
LBB1_10:
leaq (%rax,%rbp), %rdx
addq $-23, %rdx
movss -20(%rbp,%rax,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero
LBB1_12:
movb (%rdx), %dl
movb %dl, -23(%rbp,%rax)
movss %xmm0, -20(%rbp,%rax,4)
movss -20(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero
movss -16(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero
xorps %xmm0, %xmm0
maxss %xmm0, %xmm1
xorl %eax, %eax
ucomiss %xmm1, %xmm2
movss -12(%rbp), %xmm3 ## xmm3 = mem[0],zero,zero,zero
seta %al
maxss %xmm1, %xmm2
ucomiss %xmm2, %xmm3
maxss %xmm2, %xmm3
movss 4(%r8), %xmm1 ## xmm1 = mem[0],zero,zero,zero
movl $2, %r8d
cmovaq %r8, %rax
leaq 5(%rdi), %rdx
ucomiss %xmm1, %xmm3
leaq -23(%rbp,%rax), %rsi
cmovaq %rdx, %rsi
movb (%rsi), %dl
ja LBB1_14
## %bb.13:
movss -20(%rbp,%rax,4), %xmm1 ## xmm1 = mem[0],zero,zero,zero
LBB1_14:
movss %xmm1, -20(%rbp,%rax,4)
movss -20(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero
movss -16(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero
maxss %xmm0, %xmm1
xorl %esi, %esi
ucomiss %xmm1, %xmm2
seta %sil
movss -12(%rbp), %xmm3 ## xmm3 = mem[0],zero,zero,zero
maxss %xmm1, %xmm2
ucomiss %xmm2, %xmm3
movb %dl, -23(%rbp,%rax)
cmovaq %r8, %rsi
maxss %xmm2, %xmm3
movss (%rcx), %xmm0 ## xmm0 = mem[0],zero,zero,zero
ucomiss %xmm0, %xmm3
jbe LBB1_15
## %bb.16:
leaq 6(%rdi), %rax
jmp LBB1_17
LBB1_15:
leaq (%rsi,%rbp), %rax
addq $-23, %rax
movss -20(%rbp,%rsi,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero
LBB1_17:
movb (%rax), %al
movb %al, -23(%rbp,%rsi)
movss %xmm0, -20(%rbp,%rsi,4)
movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero
movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero
xorps %xmm2, %xmm2
maxss %xmm2, %xmm0
xorl %edx, %edx
ucomiss %xmm0, %xmm1
seta %dl
movss -12(%rbp), %xmm2 ## xmm2 = mem[0],zero,zero,zero
maxss %xmm0, %xmm1
ucomiss %xmm1, %xmm2
movl $2, %eax
cmovbeq %rdx, %rax
maxss %xmm1, %xmm2
movss 4(%rcx), %xmm0 ## xmm0 = mem[0],zero,zero,zero
ucomiss %xmm0, %xmm2
jbe LBB1_18
## %bb.19:
addq $7, %rdi
jmp LBB1_20
LBB1_18:
leaq (%rax,%rbp), %rdi
addq $-23, %rdi
movss -20(%rbp,%rax,4), %xmm0 ## xmm0 = mem[0],zero,zero,zero
LBB1_20:
movb (%rdi), %cl
movb %cl, -23(%rbp,%rax)
movss %xmm0, -20(%rbp,%rax,4)
movzbl -23(%rbp), %eax
movss -20(%rbp), %xmm0 ## xmm0 = mem[0],zero,zero,zero
movss -16(%rbp), %xmm1 ## xmm1 = mem[0],zero,zero,zero
ucomiss %xmm1, %xmm0
movzbl -22(%rbp), %ecx
movl %eax, %edx
cmoval %ecx, %edx
minss %xmm0, %xmm1
ucomiss -12(%rbp), %xmm1
movzbl -21(%rbp), %esi
cmoval %esi, %edx
cmpb %sil, %cl
cmovel %ecx, %edx
cmpb %sil, %al
cmovel %eax, %edx
cmpb %cl, %al
cmovel %eax, %edx
movb %dl, (%r9)
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -8(%rbp), %rax
jne LBB1_22
## %bb.21:
addq $32, %rsp
popq %rbp
retq
LBB1_22:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.globl _knnFloatNoSqrt8p128f_4parallel ## -- Begin function knnFloatNoSqrt8p128f_4parallel
.p2align 4, 0x90
_knnFloatNoSqrt8p128f_4parallel: ## @knnFloatNoSqrt8p128f_4parallel
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $40, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %r9, %r13
movq %r8, %rbx
movq %rcx, %r14
movq %rdx, %rcx
movq %rsi, %r15
movq %rdi, %r12
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq %rax, -48(%rbp)
leaq -56(%rbp), %rdx
movq %rcx, %rdi
movq %r12, %rsi
callq _parallel_0
leaq -64(%rbp), %rdx
movq %r14, %rdi
movq %r12, %rsi
callq _parallel_0
leaq -72(%rbp), %r14
movq %rbx, %rdi
movq %r12, %rsi
movq %r14, %rdx
callq _parallel_0
leaq -80(%rbp), %rbx
movq %r13, %rdi
movq %r12, %rsi
movq %rbx, %rdx
callq _parallel_0
movq %r15, %rdi
leaq -64(%rbp), %rsi
leaq -56(%rbp), %rdx
movq %rbx, %rcx
movq %r14, %r8
movq 16(%rbp), %r9
callq _epilogue
movq ___stack_chk_guard@GOTPCREL(%rip), %rax
movq (%rax), %rax
cmpq -48(%rbp), %rax
jne LBB2_2
## %bb.1:
addq $40, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
LBB2_2:
callq ___stack_chk_fail
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _parallel_0 ; -- Begin function parallel_0
.p2align 2
_parallel_0: ; @parallel_0
.cfi_startproc
; %bb.0:
sub sp, sp, #496
.cfi_def_cfa_offset 496
stp d15, d14, [sp, #416] ; 16-byte Folded Spill
stp d13, d12, [sp, #432] ; 16-byte Folded Spill
stp d11, d10, [sp, #448] ; 16-byte Folded Spill
stp d9, d8, [sp, #464] ; 16-byte Folded Spill
stp x28, x27, [sp, #480] ; 16-byte Folded Spill
.cfi_offset w27, -8
.cfi_offset w28, -16
.cfi_offset b8, -24
.cfi_offset b9, -32
.cfi_offset b10, -40
.cfi_offset b11, -48
.cfi_offset b12, -56
.cfi_offset b13, -64
.cfi_offset b14, -72
.cfi_offset b15, -80
mov x8, #0
mov w9, #1
LBB0_1: ; =>This Inner Loop Header: Depth=1
ldp s0, s1, [x1]
add x10, x0, x8, lsl #9
ldp s2, s3, [x10]
fsub s0, s0, s2
str s0, [sp, #412] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #408] ; 4-byte Folded Spill
ldp s0, s1, [x1, #8]
ldp s2, s3, [x10, #8]
fsub s0, s0, s2
str s0, [sp, #400] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #392] ; 4-byte Folded Spill
ldp s0, s1, [x1, #16]
ldp s2, s3, [x10, #16]
fsub s0, s0, s2
str s0, [sp, #384] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #388] ; 4-byte Folded Spill
ldp s0, s1, [x1, #24]
ldp s2, s3, [x10, #24]
fsub s0, s0, s2
str s0, [sp, #380] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #404] ; 4-byte Folded Spill
ldp s0, s1, [x1, #32]
ldp s2, s3, [x10, #32]
fsub s0, s0, s2
str s0, [sp, #396] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #356] ; 4-byte Folded Spill
ldp s0, s1, [x1, #40]
ldp s2, s3, [x10, #40]
fsub s0, s0, s2
str s0, [sp, #348] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #316] ; 4-byte Folded Spill
ldp s0, s1, [x1, #48]
ldp s2, s3, [x10, #48]
fsub s0, s0, s2
str s0, [sp, #304] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #344] ; 4-byte Folded Spill
ldp s0, s1, [x1, #56]
ldp s2, s3, [x10, #56]
fsub s0, s0, s2
str s0, [sp, #328] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #332] ; 4-byte Folded Spill
ldp s0, s1, [x1, #64]
ldp s2, s3, [x10, #64]
fsub s0, s0, s2
str s0, [sp, #312] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #376] ; 4-byte Folded Spill
ldp s0, s1, [x1, #72]
ldp s2, s3, [x10, #72]
fsub s0, s0, s2
str s0, [sp, #372] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #296] ; 4-byte Folded Spill
ldp s0, s1, [x1, #80]
ldp s2, s3, [x10, #80]
fsub s0, s0, s2
str s0, [sp, #280] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #240] ; 4-byte Folded Spill
ldp s0, s1, [x1, #88]
ldp s2, s3, [x10, #88]
fsub s0, s0, s2
str s0, [sp, #224] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #292] ; 4-byte Folded Spill
ldp s0, s1, [x1, #96]
ldp s2, s3, [x10, #96]
fsub s0, s0, s2
str s0, [sp, #276] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #368] ; 4-byte Folded Spill
ldp s0, s1, [x1, #104]
ldp s2, s3, [x10, #104]
fsub s0, s0, s2
str s0, [sp, #360] ; 4-byte Folded Spill
fsub s4, s1, s3
ldp s0, s1, [x1, #112]
ldp s2, s3, [x10, #112]
fsub s0, s0, s2
stp s0, s4, [sp, #204] ; 8-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #308] ; 4-byte Folded Spill
ldp s0, s1, [x1, #120]
ldp s2, s3, [x10, #120]
fsub s0, s0, s2
str s0, [sp, #300] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #364] ; 4-byte Folded Spill
ldp s0, s1, [x1, #128]
ldp s2, s3, [x10, #128]
fsub s0, s0, s2
str s0, [sp, #352] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #336] ; 4-byte Folded Spill
ldp s0, s1, [x1, #136]
ldp s2, s3, [x10, #136]
fsub s0, s0, s2
str s0, [sp, #320] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #288] ; 4-byte Folded Spill
ldp s0, s1, [x1, #144]
ldp s2, s3, [x10, #144]
fsub s0, s0, s2
str s0, [sp, #272] ; 4-byte Folded Spill
fsub s4, s1, s3
ldp s0, s1, [x1, #152]
ldp s2, s3, [x10, #152]
fsub s0, s0, s2
stp s0, s4, [sp, #212] ; 8-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #340] ; 4-byte Folded Spill
ldp s0, s1, [x1, #160]
ldp s2, s3, [x10, #160]
fsub s0, s0, s2
str s0, [sp, #324] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #248] ; 4-byte Folded Spill
ldp s0, s1, [x1, #168]
ldp s2, s3, [x10, #168]
fsub s0, s0, s2
str s0, [sp, #228] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #284] ; 4-byte Folded Spill
ldp s0, s1, [x1, #176]
ldp s2, s3, [x10, #176]
fsub s0, s0, s2
str s0, [sp, #264] ; 4-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #268] ; 4-byte Folded Spill
ldp s0, s1, [x1, #184]
ldp s2, s3, [x10, #184]
fsub s0, s0, s2
str s0, [sp, #260] ; 4-byte Folded Spill
fsub s4, s1, s3
ldp s0, s1, [x1, #192]
ldp s2, s3, [x10, #192]
fsub s0, s0, s2
stp s0, s4, [sp, #196] ; 8-byte Folded Spill
fsub s0, s1, s3
str s0, [sp, #144] ; 4-byte Folded Spill
ldp s0, s1, [x1, #200]
ldp s2, s4, [x10, #200]
fsub s3, s0, s2
fsub s0, s1, s4
str s0, [sp, #184] ; 4-byte Folded Spill
ldp s0, s1, [x1, #208]
ldp s2, s4, [x10, #208]
fsub s0, s0, s2
str s0, [sp, #172] ; 4-byte Folded Spill
fsub s0, s1, s4
str s0, [sp, #152] ; 4-byte Folded Spill
ldp s0, s1, [x1, #216]
ldp s2, s4, [x10, #216]
fsub s0, s0, s2
stp s3, s0, [sp, #132] ; 8-byte Folded Spill
fsub s3, s1, s4
ldp s0, s1, [x1, #224]
ldp s2, s4, [x10, #224]
fsub s5, s0, s2
fsub s0, s1, s4
stp s3, s0, [sp, #252] ; 8-byte Folded Spill
ldp s0, s1, [x1, #232]
ldp s2, s4, [x10, #232]
fsub s0, s0, s2
str s0, [sp, #244] ; 4-byte Folded Spill
fsub s3, s1, s4
ldp s0, s1, [x1, #240]
ldp s2, s4, [x10, #240]
fsub s0, s0, s2
stp s0, s3, [sp, #124] ; 8-byte Folded Spill
fsub s0, s1, s4
stp s5, s0, [sp, #232] ; 8-byte Folded Spill
ldp s0, s1, [x1, #248]
ldp s2, s4, [x10, #248]
fsub s0, s0, s2
str s0, [sp, #220] ; 4-byte Folded Spill
fsub s0, s1, s4
str s0, [sp, #92] ; 4-byte Folded Spill
ldr s0, [x1, #256]
ldr s1, [x10, #256]
fsub s29, s0, s1
ldr s0, [x1, #260]
ldr s1, [x10, #260]
fsub s0, s0, s1
str s0, [sp, #148] ; 4-byte Folded Spill
ldr s0, [x1, #264]
ldr s1, [x10, #264]
fsub s0, s0, s1
str s0, [sp, #140] ; 4-byte Folded Spill
ldr s0, [x1, #268]
ldr s1, [x10, #268]
fsub s2, s0, s1
ldr s0, [x1, #272]
ldr s1, [x10, #272]
fsub s0, s0, s1
stp s0, s2, [sp, #176] ; 8-byte Folded Spill
ldr s0, [x1, #276]
ldr s1, [x10, #276]
fsub s2, s0, s1
ldr s0, [x1, #280]
ldr s1, [x10, #280]
fsub s0, s0, s1
stp s0, s2, [sp, #156] ; 8-byte Folded Spill
ldr s0, [x1, #284]
ldr s1, [x10, #284]
fsub s2, s0, s1
ldr s0, [x1, #288]
ldr s1, [x10, #288]
fsub s0, s0, s1
stp s0, s2, [sp, #188] ; 8-byte Folded Spill
ldr s0, [x1, #292]
ldr s1, [x10, #292]
fsub s2, s0, s1
ldr s0, [x1, #296]
ldr s1, [x10, #296]
fsub s0, s0, s1
stp s0, s2, [sp, #164] ; 8-byte Folded Spill
ldr s0, [x1, #300]
ldr s1, [x10, #300]
fsub s2, s0, s1
ldr s0, [x1, #304]
ldr s1, [x10, #304]
fsub s3, s0, s1
ldr s0, [x1, #308]
ldr s1, [x10, #308]
fsub s0, s0, s1
stp s0, s2, [sp, #112] ; 8-byte Folded Spill
ldr s0, [x1, #312]
ldr s1, [x10, #312]
fsub s0, s0, s1
stp s0, s3, [sp, #100] ; 8-byte Folded Spill
ldr s0, [x1, #316]
ldr s1, [x10, #316]
fsub s12, s0, s1
ldr s0, [x1, #320]
ldr s2, [x10, #320]
fsub s28, s0, s2
ldr s0, [x1, #324]
ldr s4, [x10, #324]
fsub s0, s0, s4
str s0, [sp, #96] ; 4-byte Folded Spill
ldr s0, [x1, #328]
ldr s4, [x10, #328]
fsub s0, s0, s4
str s0, [sp, #88] ; 4-byte Folded Spill
ldr s0, [x1, #332]
ldr s4, [x10, #332]
fsub s0, s0, s4
str s0, [sp, #120] ; 4-byte Folded Spill
ldr s0, [x1, #336]
ldr s4, [x10, #336]
fsub s0, s0, s4
str s0, [sp, #108] ; 4-byte Folded Spill
ldr s0, [x1, #340]
ldr s4, [x10, #340]
fsub s0, s0, s4
str s0, [sp, #48] ; 4-byte Folded Spill
ldr s0, [x1, #344]
ldr s4, [x10, #344]
fsub s11, s0, s4
ldr s0, [x1, #348]
ldr s4, [x10, #348]
fsub s8, s0, s4
ldr s0, [x1, #352]
ldr s4, [x10, #352]
fsub s31, s0, s4
ldr s0, [x1, #356]
ldr s4, [x10, #356]
fsub s16, s0, s4
ldr s0, [x1, #360]
ldr s4, [x10, #360]
fsub s7, s0, s4
ldr s0, [x1, #364]
ldr s4, [x10, #364]
fsub s0, s0, s4
str s0, [sp, #64] ; 4-byte Folded Spill
ldr s0, [x1, #368]
ldr s4, [x10, #368]
fsub s0, s0, s4
str s0, [sp, #56] ; 4-byte Folded Spill
ldr s0, [x1, #372]
ldr s4, [x10, #372]
fsub s1, s0, s4
ldr s0, [x1, #376]
ldr s4, [x10, #376]
fsub s0, s0, s4
stp s0, s1, [sp, #40] ; 8-byte Folded Spill
ldr s0, [x1, #380]
ldr s4, [x10, #380]
fsub s5, s0, s4
ldr s0, [x1, #384]
ldr s4, [x10, #384]
fsub s2, s0, s4
ldr s4, [x1, #388]
ldr s6, [x10, #388]
fsub s1, s4, s6
ldr s4, [x1, #392]
ldr s6, [x10, #392]
fsub s0, s4, s6
stp s0, s1, [sp, #68] ; 8-byte Folded Spill
ldr s4, [x1, #396]
ldr s6, [x10, #396]
fsub s1, s4, s6
ldr s4, [x1, #400]
ldr s6, [x10, #400]
fsub s13, s4, s6
ldr s4, [x1, #404]
ldr s6, [x10, #404]
fsub s0, s4, s6
stp s0, s1, [sp, #32] ; 8-byte Folded Spill
ldr s4, [x1, #408]
ldr s6, [x10, #408]
fsub s0, s4, s6
str s0, [sp, #28] ; 4-byte Folded Spill
ldr s4, [x1, #412]
ldr s6, [x10, #412]
fsub s1, s4, s6
ldr s4, [x1, #416]
ldr s6, [x10, #416]
fsub s0, s4, s6
stp s0, s1, [sp, #80] ; 8-byte Folded Spill
ldr s4, [x1, #420]
ldr s6, [x10, #420]
fsub s20, s4, s6
ldr s4, [x1, #424]
ldr s6, [x10, #424]
fsub s21, s4, s6
ldr s4, [x1, #428]
ldr s6, [x10, #428]
fsub s0, s4, s6
str s0, [sp, #60] ; 4-byte Folded Spill
ldr s4, [x1, #432]
ldr s6, [x10, #432]
fsub s0, s4, s6
str s0, [sp, #52] ; 4-byte Folded Spill
ldr s4, [x1, #436]
ldr s6, [x10, #436]
fsub s19, s4, s6
ldr s4, [x1, #440]
ldr s6, [x10, #440]
fsub s23, s4, s6
ldr s4, [x1, #444]
ldr s6, [x10, #444]
fsub s17, s4, s6
ldr s4, [x1, #448]
ldr s6, [x10, #448]
fsub s24, s4, s6
ldr s4, [x1, #452]
ldr s6, [x10, #452]
fsub s25, s4, s6
ldr s4, [x1, #456]
ldr s6, [x10, #456]
fsub s26, s4, s6
ldr s4, [x1, #460]
ldr s6, [x10, #460]
fsub s27, s4, s6
ldr s4, [x1, #464]
ldr s6, [x10, #464]
fsub s30, s4, s6
ldr s4, [x1, #468]
ldr s6, [x10, #468]
fsub s1, s4, s6
ldr s4, [x1, #472]
ldr s6, [x10, #472]
fsub s0, s4, s6
stp s0, s1, [sp, #20] ; 8-byte Folded Spill
ldr s4, [x1, #476]
ldr s6, [x10, #476]
fsub s15, s4, s6
ldr s4, [x1, #480]
ldr s6, [x10, #480]
fsub s3, s4, s6
ldr s4, [x1, #484]
ldr s6, [x10, #484]
fsub s14, s4, s6
ldr s4, [x1, #488]
ldr s6, [x10, #488]
fsub s18, s4, s6
ldr s6, [x1, #492]
ldr s22, [x10, #492]
fsub s22, s6, s22
ldr s6, [x1, #496]
ldr s9, [x10, #496]
fsub s6, s6, s9
ldr s9, [x1, #500]
ldr s10, [x10, #500]
fsub s1, s9, s10
ldr s9, [x1, #504]
ldr s10, [x10, #504]
fsub s0, s9, s10
ldr s9, [x1, #508]
ldr s10, [x10, #508]
fsub s4, s9, s10
str s4, [sp, #76] ; 4-byte Folded Spill
ldr s4, [sp, #204] ; 4-byte Folded Reload
fmul s9, s4, s4
ldr s4, [sp, #208] ; 4-byte Folded Reload
fmadd s4, s4, s4, s9
str s4, [sp, #208] ; 4-byte Folded Spill
ldr s4, [sp, #224] ; 4-byte Folded Reload
fmul s9, s4, s4
ldr s4, [sp, #240] ; 4-byte Folded Reload
fmadd s4, s4, s4, s9
str s4, [sp, #16] ; 4-byte Folded Spill
ldr s4, [sp, #132] ; 4-byte Folded Reload
fmul s9, s4, s4
ldr s4, [sp, #144] ; 4-byte Folded Reload
fmadd s4, s4, s4, s9
str s4, [sp, #240] ; 4-byte Folded Spill
fmul s28, s28, s28
fmadd s4, s12, s12, s28
str s4, [sp, #132] ; 4-byte Folded Spill
fmul s2, s2, s2
fmadd s2, s5, s5, s2
str s2, [sp, #224] ; 4-byte Folded Spill
fmul s2, s24, s24
fmadd s2, s17, s17, s2
str s2, [sp, #12] ; 4-byte Folded Spill
fmul s2, s26, s26
fmadd s2, s25, s25, s2
str s2, [sp, #4] ; 4-byte Folded Spill
fmul s2, s21, s21
fmadd s2, s20, s20, s2
str s2, [sp, #144] ; 4-byte Folded Spill
fmul s2, s29, s29
ldr s4, [sp, #92] ; 4-byte Folded Reload
fmadd s2, s4, s4, s2
str s2, [sp, #92] ; 4-byte Folded Spill
fmul s2, s7, s7
fmadd s2, s16, s16, s2
str s2, [sp, #8] ; 4-byte Folded Spill
ldr s2, [sp, #136] ; 4-byte Folded Reload
fmul s2, s2, s2
ldr s4, [sp, #152] ; 4-byte Folded Reload
fmadd s2, s4, s4, s2
str s2, [sp, #204] ; 4-byte Folded Spill
fmul s2, s30, s30
fmadd s2, s27, s27, s2
str s2, [sp, #152] ; 4-byte Folded Spill
ldr s2, [sp, #280] ; 4-byte Folded Reload
fmul s2, s2, s2
ldr s4, [sp, #296] ; 4-byte Folded Reload
fmadd s2, s4, s4, s2
str s2, [sp, #136] ; 4-byte Folded Spill
ldp s2, s4, [sp, #124] ; 8-byte Folded Reload
fmul s2, s2, s2
fmadd s2, s4, s4, s2
str s2, [sp, #280] ; 4-byte Folded Spill
ldr s2, [sp, #304] ; 4-byte Folded Reload
fmul s2, s2, s2
ldr s4, [sp, #316] ; 4-byte Folded Reload
fmadd s2, s4, s4, s2
str s2, [sp, #124] ; 4-byte Folded Spill
fmul s2, s23, s23
fmadd s2, s19, s19, s2
str s2, [sp, #304] ; 4-byte Folded Spill
fmul s2, s3, s3
fmadd s2, s15, s15, s2
str s2, [sp, #316] ; 4-byte Folded Spill
fmul s0, s0, s0
fmadd s0, s1, s1, s0
str s0, [sp, #128] ; 4-byte Folded Spill
ldr s0, [sp, #276] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #292] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #296] ; 4-byte Folded Spill
ldp s0, s1, [sp, #212] ; 8-byte Folded Reload
fmul s0, s0, s0
fmadd s0, s1, s1, s0
str s0, [sp, #216] ; 4-byte Folded Spill
fmul s0, s31, s31
fmadd s0, s8, s8, s0
str s0, [sp, #276] ; 4-byte Folded Spill
fmul s0, s11, s11
ldr s1, [sp, #48] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #292] ; 4-byte Folded Spill
ldr s0, [sp, #328] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #344] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #48] ; 4-byte Folded Spill
ldr s0, [sp, #312] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #332] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #328] ; 4-byte Folded Spill
ldr s0, [sp, #172] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #184] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #344] ; 4-byte Folded Spill
ldp s0, s1, [sp, #196] ; 8-byte Folded Reload
fmul s0, s0, s0
fmadd s0, s1, s1, s0
str s0, [sp, #332] ; 4-byte Folded Spill
ldr s0, [sp, #348] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #356] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #312] ; 4-byte Folded Spill
ldr s0, [sp, #140] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #148] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #212] ; 4-byte Folded Spill
ldp s0, s1, [sp, #40] ; 8-byte Folded Reload
fmul s0, s0, s0
fmadd s0, s1, s1, s0
str s0, [sp, #356] ; 4-byte Folded Spill
fmul s0, s13, s13
ldr s1, [sp, #36] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [sp, #348] ; 4-byte Folded Spill
ldr s0, [sp, #104] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #116] ; 4-byte Folded Reload
fmadd s29, s1, s1, s0
ldp s0, s1, [sp, #28] ; 8-byte Folded Reload
fmul s0, s0, s0
fmadd s0, s1, s1, s0
str s0, [sp, #200] ; 4-byte Folded Spill
ldr s0, [sp, #228] ; 4-byte Folded Reload
fmul s0, s0, s0
ldr s1, [sp, #248] ; 4-byte Folded Reload
fmadd s3, s1, s1, s0
ldr s0, [sp, #100] ; 4-byte Folded Reload
fmul s1, s0, s0
ldr s0, [sp, #112] ; 4-byte Folded Reload
fmadd s4, s0, s0, s1
ldr s0, [sp, #56] ; 4-byte Folded Reload
fmul s2, s0, s0
ldr s0, [sp, #64] ; 4-byte Folded Reload
fmadd s0, s0, s0, s2
str s0, [sp, #248] ; 4-byte Folded Spill
ldr s0, [sp, #272] ; 4-byte Folded Reload
fmul s2, s0, s0
ldr s0, [sp, #288] ; 4-byte Folded Reload
fmadd s5, s0, s0, s2
ldr s0, [sp, #88] ; 4-byte Folded Reload
fmul s15, s0, s0
ldr s0, [sp, #96] ; 4-byte Folded Reload
fmadd s15, s0, s0, s15
fmul s18, s18, s18
fmadd s0, s14, s14, s18
str s0, [sp, #288] ; 4-byte Folded Spill
ldr s0, [sp, #384] ; 4-byte Folded Reload
fmul s18, s0, s0
ldr s0, [sp, #392] ; 4-byte Folded Reload
fmadd s18, s0, s0, s18
ldr s0, [sp, #300] ; 4-byte Folded Reload
fmul s14, s0, s0
ldr s0, [sp, #308] ; 4-byte Folded Reload
fmadd s14, s0, s0, s14
fmul s6, s6, s6
fmadd s22, s22, s22, s6
ldr s0, [sp, #380] ; 4-byte Folded Reload
fmul s6, s0, s0
ldr s0, [sp, #388] ; 4-byte Folded Reload
fmadd s2, s0, s0, s6
ldr s0, [sp, #156] ; 4-byte Folded Reload
fmul s6, s0, s0
ldr s0, [sp, #160] ; 4-byte Folded Reload
fmadd s0, s0, s0, s6
str s0, [sp, #392] ; 4-byte Folded Spill
ldr s0, [sp, #400] ; 4-byte Folded Reload
fmul s10, s0, s0
ldr s0, [sp, #408] ; 4-byte Folded Reload
fmadd s10, s0, s0, s10
ldr s0, [sp, #108] ; 4-byte Folded Reload
fmul s12, s0, s0
ldr s0, [sp, #120] ; 4-byte Folded Reload
fmadd s12, s0, s0, s12
ldr s0, [sp, #264] ; 4-byte Folded Reload
fmul s30, s0, s0
ldr s0, [sp, #284] ; 4-byte Folded Reload
fmadd s30, s0, s0, s30
ldr s0, [sp, #260] ; 4-byte Folded Reload
fmul s9, s0, s0
ldr s0, [sp, #268] ; 4-byte Folded Reload
fmadd s9, s0, s0, s9
ldr s0, [sp, #176] ; 4-byte Folded Reload
fmul s11, s0, s0
ldr s0, [sp, #180] ; 4-byte Folded Reload
fmadd s11, s0, s0, s11
ldr s0, [sp, #68] ; 4-byte Folded Reload
fmul s27, s0, s0
ldr s0, [sp, #72] ; 4-byte Folded Reload
fmadd s27, s0, s0, s27
ldr s0, [sp, #396] ; 4-byte Folded Reload
fmul s31, s0, s0
ldr s0, [sp, #404] ; 4-byte Folded Reload
fmadd s31, s0, s0, s31
ldr s0, [sp, #320] ; 4-byte Folded Reload
fmul s8, s0, s0
ldr s0, [sp, #336] ; 4-byte Folded Reload
fmadd s8, s0, s0, s8
ldr s0, [sp, #20] ; 4-byte Folded Reload
fmul s26, s0, s0
ldr s0, [sp, #24] ; 4-byte Folded Reload
fmadd s26, s0, s0, s26
ldr s0, [sp, #164] ; 4-byte Folded Reload
fmul s25, s0, s0
ldr s0, [sp, #168] ; 4-byte Folded Reload
fmadd s25, s0, s0, s25
ldr s0, [sp, #232] ; 4-byte Folded Reload
fmul s28, s0, s0
ldr s0, [sp, #252] ; 4-byte Folded Reload
fmadd s28, s0, s0, s28
ldr s0, [sp, #360] ; 4-byte Folded Reload
fmul s24, s0, s0
ldr s0, [sp, #368] ; 4-byte Folded Reload
fmadd s24, s0, s0, s24
ldr s0, [sp, #372] ; 4-byte Folded Reload
fmul s23, s0, s0
ldr s0, [sp, #376] ; 4-byte Folded Reload
fmadd s23, s0, s0, s23
ldr s0, [sp, #52] ; 4-byte Folded Reload
fmul s21, s0, s0
ldr s0, [sp, #60] ; 4-byte Folded Reload
fmadd s21, s0, s0, s21
ldr s0, [sp, #188] ; 4-byte Folded Reload
fmul s20, s0, s0
ldr s0, [sp, #192] ; 4-byte Folded Reload
fmadd s20, s0, s0, s20
ldr s0, [sp, #244] ; 4-byte Folded Reload
fmul s13, s0, s0
ldr s0, [sp, #256] ; 4-byte Folded Reload
fmadd s13, s0, s0, s13
ldr s0, [sp, #220] ; 4-byte Folded Reload
fmul s17, s0, s0
ldr s0, [sp, #236] ; 4-byte Folded Reload
fmadd s17, s0, s0, s17
ldr s0, [sp, #324] ; 4-byte Folded Reload
fmul s19, s0, s0
ldr s0, [sp, #340] ; 4-byte Folded Reload
fmadd s19, s0, s0, s19
ldr s0, [sp, #352] ; 4-byte Folded Reload
fmul s7, s0, s0
ldr s0, [sp, #364] ; 4-byte Folded Reload
fmadd s7, s0, s0, s7
ldr s0, [sp, #80] ; 4-byte Folded Reload
fmul s16, s0, s0
ldr s0, [sp, #84] ; 4-byte Folded Reload
fmadd s16, s0, s0, s16
ldr s0, [sp, #16] ; 4-byte Folded Reload
ldr s1, [sp, #136] ; 4-byte Folded Reload
fadd s0, s1, s0
ldr s1, [sp, #124] ; 4-byte Folded Reload
ldr s6, [sp, #48] ; 4-byte Folded Reload
fadd s1, s1, s6
fadd s3, s19, s3
str s3, [sp, #408] ; 4-byte Folded Spill
fadd s19, s20, s25
fadd s4, s29, s4
ldr s6, [sp, #132] ; 4-byte Folded Reload
fadd s20, s6, s15
ldr s6, [sp, #280] ; 4-byte Folded Reload
fadd s17, s6, s17
ldr s6, [sp, #12] ; 4-byte Folded Reload
ldr s25, [sp, #4] ; 4-byte Folded Reload
fadd s25, s6, s25
ldr s6, [sp, #128] ; 4-byte Folded Reload
fadd s22, s22, s6
movi d29, #0000000000000000
ldr s15, [sp, #412] ; 4-byte Folded Reload
fmadd s29, s15, s15, s29
fadd s29, s29, s10
ldp s10, s6, [sp, #212] ; 8-byte Folded Reload
fadd s5, s5, s6
ldr s6, [sp, #312] ; 4-byte Folded Reload
fadd s31, s31, s6
ldr s6, [sp, #328] ; 4-byte Folded Reload
fadd s23, s6, s23
ldr s6, [sp, #92] ; 4-byte Folded Reload
fadd s10, s6, s10
ldr s6, [sp, #8] ; 4-byte Folded Reload
ldr s15, [sp, #276] ; 4-byte Folded Reload
fadd s15, s15, s6
ldr s6, [sp, #208] ; 4-byte Folded Reload
fadd s14, s6, s14
ldr s6, [sp, #144] ; 4-byte Folded Reload
fadd s16, s16, s6
ldr s6, [sp, #152] ; 4-byte Folded Reload
fadd s26, s6, s26
fadd s2, s18, s2
ldr s6, [sp, #348] ; 4-byte Folded Reload
ldr s18, [sp, #200] ; 4-byte Folded Reload
fadd s18, s6, s18
fadd s7, s7, s8
fadd s28, s28, s13
ldr s6, [sp, #224] ; 4-byte Folded Reload
fadd s27, s6, s27
ldr s6, [sp, #356] ; 4-byte Folded Reload
ldr s3, [sp, #248] ; 4-byte Folded Reload
fadd s8, s3, s6
ldr s6, [sp, #304] ; 4-byte Folded Reload
fadd s21, s21, s6
fadd s30, s30, s9
ldr s6, [sp, #292] ; 4-byte Folded Reload
fadd s9, s12, s6
ldr s12, [sp, #240] ; 4-byte Folded Reload
ldr s6, [sp, #332] ; 4-byte Folded Reload
fadd s12, s6, s12
ldr s6, [sp, #204] ; 4-byte Folded Reload
ldr s13, [sp, #344] ; 4-byte Folded Reload
fadd s13, s13, s6
ldr s3, [sp, #392] ; 4-byte Folded Reload
fadd s6, s11, s3
ldr s11, [sp, #296] ; 4-byte Folded Reload
fadd s24, s11, s24
ldr s11, [sp, #316] ; 4-byte Folded Reload
ldr s3, [sp, #288] ; 4-byte Folded Reload
fadd s11, s11, s3
fadd s0, s23, s0
fadd s23, s15, s8
fadd s1, s31, s1
fadd s4, s19, s4
fadd s2, s29, s2
fadd s19, s24, s14
fadd s24, s25, s26
fadd s16, s16, s21
fadd s21, s11, s22
fadd s6, s10, s6
fadd s22, s12, s13
fadd s18, s27, s18
fadd s5, s7, s5
fadd s7, s28, s17
fadd s17, s20, s9
ldr s3, [sp, #408] ; 4-byte Folded Reload
fadd s3, s3, s30
fadd s4, s6, s4
fadd s6, s17, s23
fadd s16, s18, s16
fadd s3, s5, s3
fadd s5, s24, s21
fadd s0, s0, s19
fadd s1, s2, s1
fadd s2, s22, s7
fadd s2, s3, s2
fadd s3, s4, s6
fadd s4, s16, s5
fadd s0, s1, s0
fadd s1, s3, s4
fadd s0, s0, s2
fadd s0, s0, s1
ldr s1, [sp, #76] ; 4-byte Folded Reload
fmadd s0, s1, s1, s0
str s0, [x2, x8, lsl #2]
mov x10, x9
mov w8, #1
mov w9, #0
tbnz w10, #0, LBB0_1
; %bb.2:
ldp x28, x27, [sp, #480] ; 16-byte Folded Reload
ldp d9, d8, [sp, #464] ; 16-byte Folded Reload
ldp d11, d10, [sp, #448] ; 16-byte Folded Reload
ldp d13, d12, [sp, #432] ; 16-byte Folded Reload
ldp d15, d14, [sp, #416] ; 16-byte Folded Reload
add sp, sp, #496
ret
.cfi_endproc
; -- End function
.globl _epilogue ; -- Begin function epilogue
.p2align 2
_epilogue: ; @epilogue
.cfi_startproc
; %bb.0:
sub sp, sp, #48
.cfi_def_cfa_offset 48
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
Lloh0:
adrp x8, ___stack_chk_guard@GOTPAGE
Lloh1:
ldr x8, [x8, ___stack_chk_guard@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
stur x8, [x29, #-8]
mov w8, #2139095040
dup.2s v0, w8
stur d0, [sp, #16]
fmov s1, w8
ldp s2, s0, [x2]
fcmp s2, s1
fminnm s2, s2, s1
str s2, [sp, #12]
movi d3, #0000000000000000
fmaxnm s2, s2, s3
mov w8, #514
sturh w8, [sp, #9]
mov w8, #2
strb w8, [sp, #11]
add x8, sp, #9
csel x9, x0, x8, mi
ldrb w9, [x9]
strb w9, [sp, #9]
fcmp s2, s1
cset w9, mi
fcsel s1, s1, s2, mi
cinc x8, x8, mi
fcmp s0, s1
b.pl LBB1_2
; %bb.1:
add x8, x0, #1
b LBB1_3
LBB1_2:
add x10, sp, #12
ldr s0, [x10, x9, lsl #2]
LBB1_3:
ldrb w11, [x8]
add x8, sp, #12
str s0, [x8, x9, lsl #2]
add x10, sp, #9
strb w11, [x10, x9]
ldp s0, s1, [sp, #12]
movi d2, #0000000000000000
fmaxnm s0, s0, s2
fcmp s1, s0
cset w9, gt
fcsel s1, s1, s0, gt
mov w11, #2139095040
fmov s2, w11
fmax s3, s1, s2
ldr s0, [x1]
fcmp s1, s2
mov w11, #2
csel x9, x11, x9, mi
fcmp s0, s3
b.pl LBB1_5
; %bb.4:
add x10, x0, #2
b LBB1_6
LBB1_5:
add x10, x10, x9
ldr s0, [x8, x9, lsl #2]
LBB1_6:
ldrb w8, [x10]
add x10, sp, #9
strb w8, [x10, x9]
add x11, sp, #12
str s0, [x11, x9, lsl #2]
ldp s0, s1, [sp, #12]
ldr s2, [sp, #20]
movi d3, #0000000000000000
fmaxnm s0, s0, s3
fcmp s1, s0
cset w8, gt
fcsel s0, s1, s0, gt
fcmp s2, s0
fcsel s1, s2, s0, gt
ldr s0, [x1, #4]
mov w9, #2
csel x8, x9, x8, gt
fcmp s0, s1
b.pl LBB1_8
; %bb.7:
add x9, x0, #3
b LBB1_9
LBB1_8:
add x9, x10, x8
ldr s0, [x11, x8, lsl #2]
LBB1_9:
ldrb w10, [x9]
add x9, sp, #9
strb w10, [x9, x8]
add x11, sp, #12
str s0, [x11, x8, lsl #2]
ldp s0, s1, [sp, #12]
ldr s2, [sp, #20]
movi d3, #0000000000000000
fmaxnm s0, s0, s3
fcmp s1, s0
cset w8, gt
fcsel s0, s1, s0, gt
fcmp s2, s0
fcsel s1, s2, s0, gt
ldr s0, [x4]
mov w10, #2
csel x10, x10, x8, gt
fcmp s0, s1
b.pl LBB1_11
; %bb.10:
add x8, x0, #4
b LBB1_12
LBB1_11:
add x8, x9, x10
ldr s0, [x11, x10, lsl #2]
LBB1_12:
ldrb w9, [x8]
add x8, sp, #9
strb w9, [x8, x10]
add x9, sp, #12
str s0, [x9, x10, lsl #2]
ldp s0, s1, [sp, #12]
ldr s2, [sp, #20]
movi d3, #0000000000000000
fmaxnm s0, s0, s3
fcmp s1, s0
cset w10, gt
fcsel s0, s1, s0, gt
fcmp s2, s0
fcsel s0, s2, s0, gt
ldr s1, [x4, #4]
mov w11, #2
csel x10, x11, x10, gt
add x12, x8, x10
lsl x10, x10, #2
ldr s2, [x9, x10]
add x13, x0, #5
fcmp s1, s0
csel x13, x13, x12, mi
ldrb w13, [x13]
fcsel s0, s1, s2, mi
strb w13, [x12]
str s0, [x9, x10]
ldp s0, s1, [sp, #12]
ldr s2, [sp, #20]
fmaxnm s0, s0, s3
fcmp s1, s0
cset w10, gt
fcsel s0, s1, s0, gt
fcmp s2, s0
fcsel s1, s2, s0, gt
ldr s0, [x3]
csel x10, x11, x10, gt
fcmp s0, s1
b.pl LBB1_14
; %bb.13:
add x8, x0, #6
b LBB1_15
LBB1_14:
add x8, x8, x10
ldr s0, [x9, x10, lsl #2]
LBB1_15:
ldrb w8, [x8]
add x9, sp, #9
strb w8, [x9, x10]
add x11, sp, #12
str s0, [x11, x10, lsl #2]
ldp s0, s1, [sp, #12]
ldr s2, [sp, #20]
movi d3, #0000000000000000
fmaxnm s0, s0, s3
fcmp s1, s0
cset w8, gt
fcsel s0, s1, s0, gt
fcmp s2, s0
fcsel s1, s2, s0, gt
ldr s0, [x3, #4]
mov w10, #2
csel x8, x10, x8, gt
fcmp s0, s1
b.pl LBB1_17
; %bb.16:
add x9, x0, #7
b LBB1_18
LBB1_17:
add x9, x9, x8
ldr s0, [x11, x8, lsl #2]
LBB1_18:
ldrb w9, [x9]
add x10, sp, #9
strb w9, [x10, x8]
add x9, sp, #12
str s0, [x9, x8, lsl #2]
ldrb w8, [sp, #9]
ldrb w9, [sp, #10]
ldrb w10, [sp, #11]
ldp s0, s1, [sp, #12]
ldr s2, [sp, #20]
fcmp s0, s1
csel w11, w9, w8, gt
fcsel s0, s1, s0, gt
fcmp s0, s2
csel w11, w10, w11, gt
cmp w9, w10
csel w11, w9, w11, eq
cmp w8, w10
ccmp w8, w9, #4, ne
csel w8, w8, w11, eq
strb w8, [x5]
ldur x8, [x29, #-8]
Lloh3:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh4:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh5:
ldr x9, [x9]
cmp x9, x8
b.ne LBB1_20
; %bb.19:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
add sp, sp, #48
ret
LBB1_20:
bl ___stack_chk_fail
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.cfi_endproc
; -- End function
.globl _knnFloatNoSqrt8p128f_4parallel ; -- Begin function knnFloatNoSqrt8p128f_4parallel
.p2align 2
_knnFloatNoSqrt8p128f_4parallel: ; @knnFloatNoSqrt8p128f_4parallel
.cfi_startproc
; %bb.0:
sub sp, sp, #112
.cfi_def_cfa_offset 112
stp x24, x23, [sp, #48] ; 16-byte Folded Spill
stp x22, x21, [sp, #64] ; 16-byte Folded Spill
stp x20, x19, [sp, #80] ; 16-byte Folded Spill
stp x29, x30, [sp, #96] ; 16-byte Folded Spill
add x29, sp, #96
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x19, x6
mov x20, x5
mov x21, x4
mov x22, x3
mov x8, x2
mov x23, x1
mov x24, x0
Lloh6:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh7:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh8:
ldr x9, [x9]
str x9, [sp, #40]
add x2, sp, #32
mov x0, x8
mov x1, x24
bl _parallel_0
add x2, sp, #24
mov x0, x22
mov x1, x24
bl _parallel_0
add x2, sp, #16
mov x0, x21
mov x1, x24
bl _parallel_0
add x2, sp, #8
mov x0, x20
mov x1, x24
bl _parallel_0
add x1, sp, #24
add x2, sp, #32
add x3, sp, #8
add x4, sp, #16
mov x0, x23
mov x5, x19
bl _epilogue
ldr x8, [sp, #40]
Lloh9:
adrp x9, ___stack_chk_guard@GOTPAGE
Lloh10:
ldr x9, [x9, ___stack_chk_guard@GOTPAGEOFF]
Lloh11:
ldr x9, [x9]
cmp x9, x8
b.ne LBB2_2
; %bb.1:
ldp x29, x30, [sp, #96] ; 16-byte Folded Reload
ldp x20, x19, [sp, #80] ; 16-byte Folded Reload
ldp x22, x21, [sp, #64] ; 16-byte Folded Reload
ldp x24, x23, [sp, #48] ; 16-byte Folded Reload
add sp, sp, #112
ret
LBB2_2:
bl ___stack_chk_fail
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.cfi_endproc
; -- End function
.subsections_via_symbols
| the_stack_data/1028422.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function qla2x00_model_desc_show
_qla2x00_model_desc_show: ## @qla2x00_model_desc_show
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %rbx
pushq %rax
.cfi_offset %rbx, -24
movq %rdx, %rbx
callq _class_to_shost
movl %eax, %edi
callq _shost_priv
movq _PAGE_SIZE@GOTPCREL(%rip), %rcx
movl (%rcx), %esi
movq (%rax), %rax
movl (%rax), %ecx
leaq L_.str(%rip), %rdx
movq %rbx, %rdi
addq $8, %rsp
popq %rbx
popq %rbp
jmp _scnprintf ## TAILCALL
.cfi_endproc
## -- End function
.comm _PAGE_SIZE,4,2 ## @PAGE_SIZE
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "%s\n"
.no_dead_strip _qla2x00_model_desc_show
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function qla2x00_model_desc_show
_qla2x00_model_desc_show: ; @qla2x00_model_desc_show
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x2
bl _class_to_shost
bl _shost_priv
Lloh0:
adrp x8, _PAGE_SIZE@GOTPAGE
Lloh1:
ldr x8, [x8, _PAGE_SIZE@GOTPAGEOFF]
Lloh2:
ldr w1, [x8]
ldr x8, [x0]
ldr w3, [x8]
Lloh3:
adrp x2, l_.str@PAGE
Lloh4:
add x2, x2, l_.str@PAGEOFF
mov x0, x19
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _scnprintf
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _PAGE_SIZE,4,2 ; @PAGE_SIZE
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "%s\n"
.no_dead_strip _qla2x00_model_desc_show
.subsections_via_symbols
| AnghaBench/linux/drivers/scsi/qla2xxx/extr_qla_attr.c_qla2x00_model_desc_show.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function decrypt_cid
_decrypt_cid: ## @decrypt_cid
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %rbx
pushq %rax
.cfi_offset %rbx, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rcx, %r15
movq %rdx, %rbx
movq %rsi, %r14
xorl %eax, %eax
callq _update_quic_keys
movl (%rbx), %edi
callq _find_keyset
testq %rax, %rax
je LBB0_1
## %bb.2:
movq (%rax), %rdi
addq $4, %rbx
xorl %ecx, %ecx
subq $1, %r15
cmovaeq %r15, %rcx
movq %r14, %rsi
movq %rbx, %rdx
callq *(%rdi)
movq %rax, %rcx
movq _SIZE_MAX@GOTPCREL(%rip), %rax
movq (%rax), %rdx
leaq 1(%rcx), %rax
cmpq %rdx, %rcx
cmoveq %rdx, %rax
jmp LBB0_3
LBB0_1:
movq _SIZE_MAX@GOTPCREL(%rip), %rax
movq (%rax), %rax
LBB0_3:
addq $8, %rsp
popq %rbx
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _SIZE_MAX,8,3 ## @SIZE_MAX
.no_dead_strip _decrypt_cid
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function decrypt_cid
_decrypt_cid: ; @decrypt_cid
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x20, x3
mov x21, x2
mov x19, x1
bl _update_quic_keys
ldr w0, [x21]
bl _find_keyset
cbz x0, LBB0_2
; %bb.1:
ldr x0, [x0]
ldr x8, [x0]
add x2, x21, #4
sub x9, x20, #1
cmp x20, #0
csel x3, xzr, x9, eq
mov x1, x19
blr x8
Lloh0:
adrp x8, _SIZE_MAX@GOTPAGE
Lloh1:
ldr x8, [x8, _SIZE_MAX@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
cmp x0, x8
csinc x0, x8, x0, eq
b LBB0_3
LBB0_2:
Lloh3:
adrp x8, _SIZE_MAX@GOTPAGE
Lloh4:
ldr x8, [x8, _SIZE_MAX@GOTPAGEOFF]
Lloh5:
ldr x0, [x8]
LBB0_3:
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.cfi_endproc
; -- End function
.comm _SIZE_MAX,8,3 ; @SIZE_MAX
.no_dead_strip _decrypt_cid
.subsections_via_symbols
| AnghaBench/h2o/t/00unit/src/extr_......srcssl.c_decrypt_cid.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function atmegadci_device_non_isoc_close
_atmegadci_device_non_isoc_close: ## @atmegadci_device_non_isoc_close
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq _USB_ERR_CANCELLED@GOTPCREL(%rip), %rax
movl (%rax), %esi
popq %rbp
jmp _atmegadci_device_done ## TAILCALL
.cfi_endproc
## -- End function
.comm _USB_ERR_CANCELLED,4,2 ## @USB_ERR_CANCELLED
.no_dead_strip _atmegadci_device_non_isoc_close
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function atmegadci_device_non_isoc_close
_atmegadci_device_non_isoc_close: ; @atmegadci_device_non_isoc_close
.cfi_startproc
; %bb.0:
Lloh0:
adrp x8, _USB_ERR_CANCELLED@GOTPAGE
Lloh1:
ldr x8, [x8, _USB_ERR_CANCELLED@GOTPAGEOFF]
Lloh2:
ldr w1, [x8]
b _atmegadci_device_done
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _USB_ERR_CANCELLED,4,2 ; @USB_ERR_CANCELLED
.no_dead_strip _atmegadci_device_non_isoc_close
.subsections_via_symbols
| AnghaBench/freebsd/sys/dev/usb/controller/extr_atmegadci.c_atmegadci_device_non_isoc_close.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _i_APCI3XXX_InsnReadDigitalOutput ## -- Begin function i_APCI3XXX_InsnReadDigitalOutput
.p2align 4, 0x90
_i_APCI3XXX_InsnReadDigitalOutput: ## @i_APCI3XXX_InsnReadDigitalOutput
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rcx, %r14
movq %rdx, %rbx
movl (%rdx), %r15d
movl 4(%rdx), %edi
callq _CR_CHAN
cmpl $0, (%rbx)
jle LBB0_4
## %bb.1:
movl %eax, %r12d
movq _devpriv@GOTPCREL(%rip), %rax
movq (%rax), %rax
movq 8(%rax), %rcx
cmpb (%rcx), %r12b
jae LBB0_3
## %bb.2:
movq (%rax), %rdi
addq $48, %rdi
callq _inl
movzbl %r12b, %ecx
xorl %edx, %edx
btl %ecx, %eax
setb %dl
movl %edx, (%r14)
jmp LBB0_5
LBB0_4:
leaq L_.str.1(%rip), %rdi
callq _printk
movl $-101, %r15d
jmp LBB0_5
LBB0_3:
leaq L_.str(%rip), %rdi
callq _printk
movl $-3, %r15d
LBB0_5:
movl %r15d, %eax
popq %rbx
popq %r12
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _devpriv,8,3 ## @devpriv
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Channel selection error\n"
L_.str.1: ## @.str.1
.asciz "Buffer size error\n"
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _i_APCI3XXX_InsnReadDigitalOutput ; -- Begin function i_APCI3XXX_InsnReadDigitalOutput
.p2align 2
_i_APCI3XXX_InsnReadDigitalOutput: ; @i_APCI3XXX_InsnReadDigitalOutput
.cfi_startproc
; %bb.0:
stp x22, x21, [sp, #-48]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 48
stp x20, x19, [sp, #16] ; 16-byte Folded Spill
stp x29, x30, [sp, #32] ; 16-byte Folded Spill
add x29, sp, #32
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
mov x20, x3
mov x22, x2
ldp w19, w0, [x2]
bl _CR_CHAN
ldr w8, [x22]
cmp w8, #1
b.lt LBB0_3
; %bb.1:
mov x21, x0
Lloh0:
adrp x8, _devpriv@GOTPAGE
Lloh1:
ldr x8, [x8, _devpriv@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
ldr x9, [x8, #8]
ldrb w9, [x9]
cmp w0, w9
b.hs LBB0_4
; %bb.2:
ldr x8, [x8]
add x0, x8, #48
bl _inl
lsr w8, w0, w21
and w8, w8, #0x1
str w8, [x20]
b LBB0_5
LBB0_3:
Lloh3:
adrp x0, l_.str.1@PAGE
Lloh4:
add x0, x0, l_.str.1@PAGEOFF
bl _printk
mov w19, #-101
b LBB0_5
LBB0_4:
Lloh5:
adrp x0, l_.str@PAGE
Lloh6:
add x0, x0, l_.str@PAGEOFF
bl _printk
mov w19, #-3
LBB0_5:
mov x0, x19
ldp x29, x30, [sp, #32] ; 16-byte Folded Reload
ldp x20, x19, [sp, #16] ; 16-byte Folded Reload
ldp x22, x21, [sp], #48 ; 16-byte Folded Reload
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpAdd Lloh3, Lloh4
.loh AdrpAdd Lloh5, Lloh6
.cfi_endproc
; -- End function
.comm _devpriv,8,3 ; @devpriv
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Channel selection error\n"
l_.str.1: ; @.str.1
.asciz "Buffer size error\n"
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/drivers/staging/comedi/drivers/addi-data/extr_hwdrv_apci3xxx.c_i_APCI3XXX_InsnReadDigitalOutput.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function print_all_libs_info
_print_all_libs_info: ## @print_all_libs_info
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r14
pushq %rbx
.cfi_offset %rbx, -32
.cfi_offset %r14, -24
movl %esi, %r14d
movl %edi, %ebx
movq _avutil@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _AVUTIL@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _avcodec@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _AVCODEC@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _avformat@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _AVFORMAT@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _avdevice@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _AVDEVICE@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _avfilter@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _AVFILTER@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _avresample@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _AVRESAMPLE@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _swscale@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _SWSCALE@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _swresample@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _SWRESAMPLE@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
callq _PRINT_LIB_INFO
movq _postproc@GOTPCREL(%rip), %rax
movl (%rax), %edi
movq _POSTPROC@GOTPCREL(%rip), %rax
movl (%rax), %esi
movl %ebx, %edx
movl %r14d, %ecx
popq %rbx
popq %r14
popq %rbp
jmp _PRINT_LIB_INFO ## TAILCALL
.cfi_endproc
## -- End function
.comm _avutil,4,2 ## @avutil
.comm _AVUTIL,4,2 ## @AVUTIL
.comm _avcodec,4,2 ## @avcodec
.comm _AVCODEC,4,2 ## @AVCODEC
.comm _avformat,4,2 ## @avformat
.comm _AVFORMAT,4,2 ## @AVFORMAT
.comm _avdevice,4,2 ## @avdevice
.comm _AVDEVICE,4,2 ## @AVDEVICE
.comm _avfilter,4,2 ## @avfilter
.comm _AVFILTER,4,2 ## @AVFILTER
.comm _avresample,4,2 ## @avresample
.comm _AVRESAMPLE,4,2 ## @AVRESAMPLE
.comm _swscale,4,2 ## @swscale
.comm _SWSCALE,4,2 ## @SWSCALE
.comm _swresample,4,2 ## @swresample
.comm _SWRESAMPLE,4,2 ## @SWRESAMPLE
.comm _postproc,4,2 ## @postproc
.comm _POSTPROC,4,2 ## @POSTPROC
.no_dead_strip _print_all_libs_info
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function print_all_libs_info
_print_all_libs_info: ; @print_all_libs_info
.cfi_startproc
; %bb.0:
stp x20, x19, [sp, #-32]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
mov x19, x1
mov x20, x0
Lloh0:
adrp x8, _avutil@GOTPAGE
Lloh1:
ldr x8, [x8, _avutil@GOTPAGEOFF]
Lloh2:
ldr w0, [x8]
Lloh3:
adrp x8, _AVUTIL@GOTPAGE
Lloh4:
ldr x8, [x8, _AVUTIL@GOTPAGEOFF]
Lloh5:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh6:
adrp x8, _avcodec@GOTPAGE
Lloh7:
ldr x8, [x8, _avcodec@GOTPAGEOFF]
Lloh8:
ldr w0, [x8]
Lloh9:
adrp x8, _AVCODEC@GOTPAGE
Lloh10:
ldr x8, [x8, _AVCODEC@GOTPAGEOFF]
Lloh11:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh12:
adrp x8, _avformat@GOTPAGE
Lloh13:
ldr x8, [x8, _avformat@GOTPAGEOFF]
Lloh14:
ldr w0, [x8]
Lloh15:
adrp x8, _AVFORMAT@GOTPAGE
Lloh16:
ldr x8, [x8, _AVFORMAT@GOTPAGEOFF]
Lloh17:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh18:
adrp x8, _avdevice@GOTPAGE
Lloh19:
ldr x8, [x8, _avdevice@GOTPAGEOFF]
Lloh20:
ldr w0, [x8]
Lloh21:
adrp x8, _AVDEVICE@GOTPAGE
Lloh22:
ldr x8, [x8, _AVDEVICE@GOTPAGEOFF]
Lloh23:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh24:
adrp x8, _avfilter@GOTPAGE
Lloh25:
ldr x8, [x8, _avfilter@GOTPAGEOFF]
Lloh26:
ldr w0, [x8]
Lloh27:
adrp x8, _AVFILTER@GOTPAGE
Lloh28:
ldr x8, [x8, _AVFILTER@GOTPAGEOFF]
Lloh29:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh30:
adrp x8, _avresample@GOTPAGE
Lloh31:
ldr x8, [x8, _avresample@GOTPAGEOFF]
Lloh32:
ldr w0, [x8]
Lloh33:
adrp x8, _AVRESAMPLE@GOTPAGE
Lloh34:
ldr x8, [x8, _AVRESAMPLE@GOTPAGEOFF]
Lloh35:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh36:
adrp x8, _swscale@GOTPAGE
Lloh37:
ldr x8, [x8, _swscale@GOTPAGEOFF]
Lloh38:
ldr w0, [x8]
Lloh39:
adrp x8, _SWSCALE@GOTPAGE
Lloh40:
ldr x8, [x8, _SWSCALE@GOTPAGEOFF]
Lloh41:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh42:
adrp x8, _swresample@GOTPAGE
Lloh43:
ldr x8, [x8, _swresample@GOTPAGEOFF]
Lloh44:
ldr w0, [x8]
Lloh45:
adrp x8, _SWRESAMPLE@GOTPAGE
Lloh46:
ldr x8, [x8, _SWRESAMPLE@GOTPAGEOFF]
Lloh47:
ldr w1, [x8]
mov x2, x20
mov x3, x19
bl _PRINT_LIB_INFO
Lloh48:
adrp x8, _postproc@GOTPAGE
Lloh49:
ldr x8, [x8, _postproc@GOTPAGEOFF]
Lloh50:
adrp x9, _POSTPROC@GOTPAGE
Lloh51:
ldr x9, [x9, _POSTPROC@GOTPAGEOFF]
Lloh52:
ldr w0, [x8]
Lloh53:
ldr w1, [x9]
mov x2, x20
mov x3, x19
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
ldp x20, x19, [sp], #32 ; 16-byte Folded Reload
b _PRINT_LIB_INFO
.loh AdrpLdrGotLdr Lloh50, Lloh51, Lloh53
.loh AdrpLdrGotLdr Lloh48, Lloh49, Lloh52
.loh AdrpLdrGotLdr Lloh45, Lloh46, Lloh47
.loh AdrpLdrGotLdr Lloh42, Lloh43, Lloh44
.loh AdrpLdrGotLdr Lloh39, Lloh40, Lloh41
.loh AdrpLdrGotLdr Lloh36, Lloh37, Lloh38
.loh AdrpLdrGotLdr Lloh33, Lloh34, Lloh35
.loh AdrpLdrGotLdr Lloh30, Lloh31, Lloh32
.loh AdrpLdrGotLdr Lloh27, Lloh28, Lloh29
.loh AdrpLdrGotLdr Lloh24, Lloh25, Lloh26
.loh AdrpLdrGotLdr Lloh21, Lloh22, Lloh23
.loh AdrpLdrGotLdr Lloh18, Lloh19, Lloh20
.loh AdrpLdrGotLdr Lloh15, Lloh16, Lloh17
.loh AdrpLdrGotLdr Lloh12, Lloh13, Lloh14
.loh AdrpLdrGotLdr Lloh9, Lloh10, Lloh11
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _avutil,4,2 ; @avutil
.comm _AVUTIL,4,2 ; @AVUTIL
.comm _avcodec,4,2 ; @avcodec
.comm _AVCODEC,4,2 ; @AVCODEC
.comm _avformat,4,2 ; @avformat
.comm _AVFORMAT,4,2 ; @AVFORMAT
.comm _avdevice,4,2 ; @avdevice
.comm _AVDEVICE,4,2 ; @AVDEVICE
.comm _avfilter,4,2 ; @avfilter
.comm _AVFILTER,4,2 ; @AVFILTER
.comm _avresample,4,2 ; @avresample
.comm _AVRESAMPLE,4,2 ; @AVRESAMPLE
.comm _swscale,4,2 ; @swscale
.comm _SWSCALE,4,2 ; @SWSCALE
.comm _swresample,4,2 ; @swresample
.comm _SWRESAMPLE,4,2 ; @SWRESAMPLE
.comm _postproc,4,2 ; @postproc
.comm _POSTPROC,4,2 ; @POSTPROC
.no_dead_strip _print_all_libs_info
.subsections_via_symbols
| AnghaBench/FFmpeg/fftools/extr_cmdutils.c_print_all_libs_info.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function builtin_decl_implicit
_builtin_decl_implicit: ## @builtin_decl_implicit
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq _implicit_built_in_decls@GOTPCREL(%rip), %rax
movq (%rax), %rax
movl %edi, %ecx
movl (%rax,%rcx,4), %eax
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _implicit_built_in_decls,8,3 ## @implicit_built_in_decls
.no_dead_strip _builtin_decl_implicit
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function builtin_decl_implicit
_builtin_decl_implicit: ; @builtin_decl_implicit
.cfi_startproc
; %bb.0:
Lloh0:
adrp x8, _implicit_built_in_decls@GOTPAGE
Lloh1:
ldr x8, [x8, _implicit_built_in_decls@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
ldr w0, [x8, w0, uxtw #2]
ret
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _implicit_built_in_decls,8,3 ; @implicit_built_in_decls
.no_dead_strip _builtin_decl_implicit
.subsections_via_symbols
| AnghaBench/linux/scripts/gcc-plugins/extr_gcc-common.h_builtin_decl_implicit.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function mlx4_ACCESS_MEM
_mlx4_ACCESS_MEM: ## @mlx4_ACCESS_MEM
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
subq $16, %rsp
movl %r8d, %r10d
movl %edx, %r8d
movl %esi, %eax
movl %ecx, %edx
orl %esi, %edx
andl $4095, %edx ## imm = 0xFFF
movl %r8d, %esi
andl $-128, %esi
orl %edx, %esi
movzbl %r10b, %edx
orl %esi, %edx
je LBB0_2
## %bb.1:
leaq L_.str(%rip), %rsi
movl %ecx, %edx
movl %eax, %ecx
movl %r10d, %r9d
callq _mlx4_err
movq _EINVAL@GOTPCREL(%rip), %rcx
xorl %eax, %eax
subl (%rcx), %eax
jmp LBB0_6
LBB0_2:
testl %r9d, %r9d
je LBB0_4
## %bb.3:
orl %r8d, %ecx
orl (%rdi), %eax
jmp LBB0_5
LBB0_4:
movl %eax, %edx
orl (%rdi), %edx
orl %r8d, %ecx
movl %ecx, %eax
movl %edx, %ecx
LBB0_5:
movl %eax, -4(%rbp)
movq _MLX4_CMD_ACCESS_MEM@GOTPCREL(%rip), %rax
movl (%rax), %r9d
movq _MLX4_CMD_TIME_CLASS_A@GOTPCREL(%rip), %rax
movl (%rax), %r11d
movq _MLX4_CMD_NATIVE@GOTPCREL(%rip), %rdx
movl (%rdx), %eax
leaq -4(%rbp), %rdx
movl %ecx, %esi
movl %r10d, %ecx
xorl %r8d, %r8d
pushq %rax
pushq %r11
callq _mlx4_cmd_imm
addq $16, %rsp
LBB0_6:
addq $16, %rsp
popq %rbp
retq
.cfi_endproc
## -- End function
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Bad access mem params - slave_addr:0x%llx master_addr:0x%llx slave_id:%d size:%d\n"
.comm _EINVAL,4,2 ## @EINVAL
.comm _MLX4_CMD_ACCESS_MEM,4,2 ## @MLX4_CMD_ACCESS_MEM
.comm _MLX4_CMD_TIME_CLASS_A,4,2 ## @MLX4_CMD_TIME_CLASS_A
.comm _MLX4_CMD_NATIVE,4,2 ## @MLX4_CMD_NATIVE
.no_dead_strip _mlx4_ACCESS_MEM
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function mlx4_ACCESS_MEM
_mlx4_ACCESS_MEM: ; @mlx4_ACCESS_MEM
.cfi_startproc
; %bb.0:
sub sp, sp, #32
.cfi_def_cfa_offset 32
stp x29, x30, [sp, #16] ; 16-byte Folded Spill
add x29, sp, #16
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
mov x9, x4
mov x4, x2
mov x8, x1
orr w10, w3, w1
and w10, w10, #0xfff
and w11, w2, #0xffffff80
orr w10, w10, w11
and w11, w9, #0xff
orr w10, w10, w11
cbz w10, LBB0_2
; %bb.1:
Lloh0:
adrp x1, l_.str@PAGE
Lloh1:
add x1, x1, l_.str@PAGEOFF
mov x2, x3
mov x3, x8
mov x5, x9
bl _mlx4_err
Lloh2:
adrp x8, _EINVAL@GOTPAGE
Lloh3:
ldr x8, [x8, _EINVAL@GOTPAGEOFF]
Lloh4:
ldr w8, [x8]
neg w0, w8
b LBB0_6
LBB0_2:
cbz w5, LBB0_4
; %bb.3:
orr w1, w3, w4
ldr w10, [x0]
orr w8, w10, w8
b LBB0_5
LBB0_4:
ldr w10, [x0]
orr w1, w10, w8
orr w8, w3, w4
LBB0_5:
stur w8, [x29, #-4]
Lloh5:
adrp x8, _MLX4_CMD_ACCESS_MEM@GOTPAGE
Lloh6:
ldr x8, [x8, _MLX4_CMD_ACCESS_MEM@GOTPAGEOFF]
Lloh7:
ldr w5, [x8]
Lloh8:
adrp x8, _MLX4_CMD_TIME_CLASS_A@GOTPAGE
Lloh9:
ldr x8, [x8, _MLX4_CMD_TIME_CLASS_A@GOTPAGEOFF]
Lloh10:
ldr w6, [x8]
Lloh11:
adrp x8, _MLX4_CMD_NATIVE@GOTPAGE
Lloh12:
ldr x8, [x8, _MLX4_CMD_NATIVE@GOTPAGEOFF]
Lloh13:
ldr w7, [x8]
sub x2, x29, #4
mov x3, x9
mov w4, #0
bl _mlx4_cmd_imm
LBB0_6:
ldp x29, x30, [sp, #16] ; 16-byte Folded Reload
add sp, sp, #32
ret
.loh AdrpLdrGotLdr Lloh2, Lloh3, Lloh4
.loh AdrpAdd Lloh0, Lloh1
.loh AdrpLdrGotLdr Lloh11, Lloh12, Lloh13
.loh AdrpLdrGotLdr Lloh8, Lloh9, Lloh10
.loh AdrpLdrGotLdr Lloh5, Lloh6, Lloh7
.cfi_endproc
; -- End function
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Bad access mem params - slave_addr:0x%llx master_addr:0x%llx slave_id:%d size:%d\n"
.comm _EINVAL,4,2 ; @EINVAL
.comm _MLX4_CMD_ACCESS_MEM,4,2 ; @MLX4_CMD_ACCESS_MEM
.comm _MLX4_CMD_TIME_CLASS_A,4,2 ; @MLX4_CMD_TIME_CLASS_A
.comm _MLX4_CMD_NATIVE,4,2 ; @MLX4_CMD_NATIVE
.no_dead_strip _mlx4_ACCESS_MEM
.subsections_via_symbols
| AnghaBench/fastsocket/kernel/drivers/net/mlx4/extr_cmd.c_mlx4_ACCESS_MEM.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function gate_rtl_unroll_and_peel_loops
_gate_rtl_unroll_and_peel_loops: ## @gate_rtl_unroll_and_peel_loops
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
movq _flag_peel_loops@GOTPCREL(%rip), %rax
movq (%rax), %rcx
movq _flag_unroll_loops@GOTPCREL(%rip), %rax
orq (%rax), %rcx
movq _flag_unroll_all_loops@GOTPCREL(%rip), %rdx
xorl %eax, %eax
orq (%rdx), %rcx
setne %al
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _flag_peel_loops,8,3 ## @flag_peel_loops
.comm _flag_unroll_loops,8,3 ## @flag_unroll_loops
.comm _flag_unroll_all_loops,8,3 ## @flag_unroll_all_loops
.no_dead_strip _gate_rtl_unroll_and_peel_loops
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function gate_rtl_unroll_and_peel_loops
_gate_rtl_unroll_and_peel_loops: ; @gate_rtl_unroll_and_peel_loops
.cfi_startproc
; %bb.0:
Lloh0:
adrp x8, _flag_peel_loops@GOTPAGE
Lloh1:
ldr x8, [x8, _flag_peel_loops@GOTPAGEOFF]
Lloh2:
ldr x8, [x8]
Lloh3:
adrp x9, _flag_unroll_loops@GOTPAGE
Lloh4:
ldr x9, [x9, _flag_unroll_loops@GOTPAGEOFF]
Lloh5:
ldr x9, [x9]
Lloh6:
adrp x10, _flag_unroll_all_loops@GOTPAGE
Lloh7:
ldr x10, [x10, _flag_unroll_all_loops@GOTPAGEOFF]
orr x8, x8, x9
Lloh8:
ldr x9, [x10]
orr x8, x8, x9
cmp x8, #0
cset w0, ne
ret
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _flag_peel_loops,8,3 ; @flag_peel_loops
.comm _flag_unroll_loops,8,3 ; @flag_unroll_loops
.comm _flag_unroll_all_loops,8,3 ; @flag_unroll_all_loops
.no_dead_strip _gate_rtl_unroll_and_peel_loops
.subsections_via_symbols
| AnghaBench/freebsd/contrib/gcc/extr_loop-init.c_gate_rtl_unroll_and_peel_loops.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function power
_power: ## @power
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r12
pushq %rbx
subq $16, %rsp
.cfi_offset %rbx, -48
.cfi_offset %r12, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdx, %r14
movl %esi, %ebx
movq %rdi, %r15
movl %esi, %edi
movq %rdx, %rsi
movq %r15, %rdx
callq _arg_parse
movq _opt@GOTPCREL(%rip), %r12
cmpq $0, 16(%r12)
je LBB0_3
## %bb.1:
movq (%r12), %rax
movq _POWER_NONE@GOTPCREL(%rip), %rcx
cmpq (%rcx), %rax
je LBB0_3
## %bb.2:
movq _stderr@GOTPCREL(%rip), %rax
movl (%rax), %edi
leaq L_.str(%rip), %rsi
callq _fprintf
movl %ebx, %edi
movq %r14, %rsi
movq %r15, %rdx
callq _arg_help
LBB0_3:
movl 24(%r12), %edi
leaq -36(%rbp), %rsi
movl $1, %edx
movl $1, %ecx
callq _open_dev
cmpq $0, 16(%r12)
jne LBB0_4
## %bb.5:
movq (%r12), %rsi
movq _POWER_NONE@GOTPCREL(%rip), %rax
movl -36(%rbp), %edi
cmpq (%rax), %rsi
jne LBB0_6
## %bb.7:
callq _power_show
jmp LBB0_8
LBB0_4:
movl -36(%rbp), %edi
leaq -40(%rbp), %rbx
movq %rbx, %rsi
callq _read_controller_data
movq %rbx, %rdi
callq _power_list
jmp LBB0_8
LBB0_6:
movl 8(%r12), %edx
xorl %ecx, %ecx
callq _power_set
LBB0_8:
movl -36(%rbp), %edi
callq _close
xorl %edi, %edi
callq _exit
.cfi_endproc
## -- End function
.comm _opt,32,3 ## @opt
.comm _POWER_NONE,8,3 ## @POWER_NONE
.comm _stderr,4,2 ## @stderr
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "Can't set power and list power states\n"
.no_dead_strip _power
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function power
_power: ; @power
.cfi_startproc
; %bb.0:
sub sp, sp, #80
.cfi_def_cfa_offset 80
stp x24, x23, [sp, #16] ; 16-byte Folded Spill
stp x22, x21, [sp, #32] ; 16-byte Folded Spill
stp x20, x19, [sp, #48] ; 16-byte Folded Spill
stp x29, x30, [sp, #64] ; 16-byte Folded Spill
add x29, sp, #64
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x19, x2
mov x21, x1
mov x20, x0
mov x0, x1
mov x1, x2
mov x2, x20
bl _arg_parse
Lloh0:
adrp x22, _opt@GOTPAGE
Lloh1:
ldr x22, [x22, _opt@GOTPAGEOFF]
ldr x8, [x22, #16]
Lloh2:
adrp x23, _POWER_NONE@GOTPAGE
Lloh3:
ldr x23, [x23, _POWER_NONE@GOTPAGEOFF]
cbz x8, LBB0_3
; %bb.1:
ldr x8, [x22]
ldr x9, [x23]
cmp x8, x9
b.eq LBB0_3
; %bb.2:
Lloh4:
adrp x8, _stderr@GOTPAGE
Lloh5:
ldr x8, [x8, _stderr@GOTPAGEOFF]
Lloh6:
ldr w0, [x8]
Lloh7:
adrp x1, l_.str@PAGE
Lloh8:
add x1, x1, l_.str@PAGEOFF
bl _fprintf
mov x0, x21
mov x1, x19
mov x2, x20
bl _arg_help
LBB0_3:
ldr w0, [x22, #24]
add x1, sp, #4
mov w2, #1
mov w3, #1
bl _open_dev
ldr x8, [x22, #16]
cbnz x8, LBB0_6
; %bb.4:
ldr x1, [x22]
ldr x8, [x23]
ldr w0, [sp, #4]
cmp x1, x8
b.ne LBB0_7
; %bb.5:
bl _power_show
b LBB0_8
LBB0_6:
ldr w0, [sp, #4]
add x1, sp, #8
bl _read_controller_data
add x0, sp, #8
bl _power_list
b LBB0_8
LBB0_7:
ldr w2, [x22, #8]
mov w3, #0
bl _power_set
LBB0_8:
ldr w0, [sp, #4]
bl _close
mov w0, #0
bl _exit
.loh AdrpLdrGot Lloh2, Lloh3
.loh AdrpLdrGot Lloh0, Lloh1
.loh AdrpAdd Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh4, Lloh5, Lloh6
.cfi_endproc
; -- End function
.comm _opt,32,3 ; @opt
.comm _POWER_NONE,8,3 ; @POWER_NONE
.comm _stderr,4,2 ; @stderr
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "Can't set power and list power states\n"
.no_dead_strip _power
.subsections_via_symbols
| AnghaBench/freebsd/sbin/nvmecontrol/extr_power.c_power.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function shader_glsl_texbem
_shader_glsl_texbem: ## @shader_glsl_texbem
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $104, %rsp
.cfi_offset %rbx, -56
.cfi_offset %r12, -48
.cfi_offset %r13, -40
.cfi_offset %r14, -32
.cfi_offset %r15, -24
movq %rdi, %r15
movq 8(%rdi), %rdi
movq 8(%rdi), %rax
movq 16(%r15), %rcx
movq (%rcx), %rcx
movl (%rcx), %r14d
movq (%rax), %rax
movl (%rax), %ebx
movq _WINED3D_PSARGS_TEXTRANSFORM_SHIFT@GOTPCREL(%rip), %rax
movl (%rax), %ecx
imull %r14d, %ecx
## kill: def $cl killed $cl killed $ecx
sarl %cl, %ebx
movq _WINED3D_PSARGS_TEXTRANSFORM_MASK@GOTPCREL(%rip), %rax
andl (%rax), %ebx
xorl %r12d, %r12d
leaq -48(%rbp), %r8
movl %r14d, %esi
movl %r14d, %edx
xorl %ecx, %ecx
callq _shader_glsl_get_sample_function
movl -48(%rbp), %edi
leaq -78(%rbp), %r13
movq %r13, %rsi
callq _shader_glsl_write_mask_to_str
movq _WINED3D_PSARGS_PROJECTED@GOTPCREL(%rip), %rax
movl (%rax), %eax
testl %ebx, %eax
je LBB0_10
## %bb.1:
notl %eax
andl %eax, %ebx
addl $-128, %ebx
cmpl $4, %ebx
ja LBB0_2
## %bb.3:
leaq LJTI0_0(%rip), %rax
movslq (%rax,%rbx,4), %rcx
addq %rax, %rcx
jmpq *%rcx
LBB0_7:
movq %r13, %rbx
movq _WINED3DSP_WRITEMASK_3@GOTPCREL(%rip), %rax
jmp LBB0_8
LBB0_2:
movq %r13, %rbx
jmp LBB0_9
LBB0_6:
movq %r13, %rbx
movq _WINED3DSP_WRITEMASK_2@GOTPCREL(%rip), %rax
jmp LBB0_8
LBB0_5:
movq %r13, %rbx
movq _WINED3DSP_WRITEMASK_1@GOTPCREL(%rip), %rax
LBB0_8:
movl (%rax), %r12d
jmp LBB0_9
LBB0_4:
movq %r13, %rbx
leaq L_.str(%rip), %rdi
callq _FIXME
LBB0_9:
leaq -56(%rbp), %r13
movl %r12d, %edi
movq %r13, %rsi
callq _shader_glsl_write_mask_to_str
movq 8(%r15), %rax
movl (%rax), %edi
leaq L_.str.1(%rip), %rsi
leaq -78(%rbp), %rcx
movl %r14d, %edx
movl %r14d, %r8d
movq %r13, %r9
xorl %eax, %eax
callq _shader_addline
movq %rbx, %r13
LBB0_10:
movq 24(%r15), %rsi
movq _WINED3DSP_WRITEMASK_0@GOTPCREL(%rip), %rax
movq _WINED3DSP_WRITEMASK_1@GOTPCREL(%rip), %rcx
movl (%rcx), %edx
orl (%rax), %edx
leaq -72(%rbp), %rcx
movq %r15, %rdi
callq _shader_glsl_add_src_param
movq _WINED3DSP_NOSWIZZLE@GOTPCREL(%rip), %rax
movl (%rax), %ecx
movl -72(%rbp), %eax
movq %r13, 56(%rsp)
movl %eax, 48(%rsp)
movl %r14d, 40(%rsp)
movq %r13, 32(%rsp)
movl %r14d, 24(%rsp)
leaq L_.str.2(%rip), %rax
movq %rax, 16(%rsp)
xorps %xmm0, %xmm0
movups %xmm0, (%rsp)
leaq -48(%rbp), %rdx
movq %r15, %rdi
movl %r14d, %esi
xorl %r8d, %r8d
xorl %r9d, %r9d
callq _shader_glsl_gen_sample_code
movq (%r15), %rax
movq _WINED3DSIH_TEXBEML@GOTPCREL(%rip), %rcx
cmpq (%rcx), %rax
jne LBB0_12
## %bb.11:
movq 24(%r15), %rsi
movq _WINED3DSP_WRITEMASK_2@GOTPCREL(%rip), %rax
movl (%rax), %edx
leaq -64(%rbp), %rcx
movq %r15, %rdi
callq _shader_glsl_add_src_param
movq 16(%r15), %rsi
leaq -56(%rbp), %rdx
movq %r15, %rdi
callq _shader_glsl_add_dst_param
movq 8(%r15), %rax
movl (%rax), %edi
movl -52(%rbp), %edx
movslq -56(%rbp), %rcx
movl -64(%rbp), %r8d
movl %r14d, (%rsp)
leaq L_.str.3(%rip), %rsi
movl %r14d, %r9d
xorl %eax, %eax
callq _shader_addline
LBB0_12:
movq 8(%r15), %rdi
leaq -48(%rbp), %rsi
callq _shader_glsl_release_sample_function
addq $104, %rsp
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
popq %rbp
retq
.cfi_endproc
.p2align 2, 0x90
.data_region jt32
.set L0_0_set_7, LBB0_7-LJTI0_0
.set L0_0_set_6, LBB0_6-LJTI0_0
.set L0_0_set_5, LBB0_5-LJTI0_0
.set L0_0_set_4, LBB0_4-LJTI0_0
LJTI0_0:
.long L0_0_set_7
.long L0_0_set_7
.long L0_0_set_6
.long L0_0_set_5
.long L0_0_set_4
.end_data_region
## -- End function
.comm _WINED3D_PSARGS_TEXTRANSFORM_SHIFT,4,2 ## @WINED3D_PSARGS_TEXTRANSFORM_SHIFT
.comm _WINED3D_PSARGS_TEXTRANSFORM_MASK,4,2 ## @WINED3D_PSARGS_TEXTRANSFORM_MASK
.comm _WINED3D_PSARGS_PROJECTED,4,2 ## @WINED3D_PSARGS_PROJECTED
.section __TEXT,__cstring,cstring_literals
L_.str: ## @.str
.asciz "WINED3D_TTFF_PROJECTED with WINED3D_TTFF_COUNT1?\n"
.comm _WINED3DSP_WRITEMASK_1,4,2 ## @WINED3DSP_WRITEMASK_1
.comm _WINED3DSP_WRITEMASK_2,4,2 ## @WINED3DSP_WRITEMASK_2
.comm _WINED3DSP_WRITEMASK_3,4,2 ## @WINED3DSP_WRITEMASK_3
L_.str.1: ## @.str.1
.asciz "T%u%s /= T%u%s;\n"
.comm _WINED3DSP_WRITEMASK_0,4,2 ## @WINED3DSP_WRITEMASK_0
.comm _WINED3DSP_NOSWIZZLE,4,2 ## @WINED3DSP_NOSWIZZLE
L_.str.2: ## @.str.2
.asciz "T%u%s + vec4(bumpenv_mat%u * %s, 0.0, 0.0)%s"
.comm _WINED3DSIH_TEXBEML,8,3 ## @WINED3DSIH_TEXBEML
L_.str.3: ## @.str.3
.asciz "%s%s *= (%s * bumpenv_lum_scale%u + bumpenv_lum_offset%u);\n"
.no_dead_strip _shader_glsl_texbem
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function shader_glsl_texbem
_shader_glsl_texbem: ; @shader_glsl_texbem
.cfi_startproc
; %bb.0:
sub sp, sp, #144
.cfi_def_cfa_offset 144
stp x24, x23, [sp, #80] ; 16-byte Folded Spill
stp x22, x21, [sp, #96] ; 16-byte Folded Spill
stp x20, x19, [sp, #112] ; 16-byte Folded Spill
stp x29, x30, [sp, #128] ; 16-byte Folded Spill
add x29, sp, #128
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
.cfi_offset w19, -24
.cfi_offset w20, -32
.cfi_offset w21, -40
.cfi_offset w22, -48
.cfi_offset w23, -56
.cfi_offset w24, -64
mov x19, x0
ldr x0, [x0, #8]
ldr x8, [x19, #16]
ldr x9, [x0, #8]
ldr x8, [x8]
ldr w20, [x8]
ldr x8, [x9]
ldr w8, [x8]
Lloh0:
adrp x9, _WINED3D_PSARGS_TEXTRANSFORM_SHIFT@GOTPAGE
Lloh1:
ldr x9, [x9, _WINED3D_PSARGS_TEXTRANSFORM_SHIFT@GOTPAGEOFF]
Lloh2:
ldr w9, [x9]
mul w9, w9, w20
asr w8, w8, w9
Lloh3:
adrp x9, _WINED3D_PSARGS_TEXTRANSFORM_MASK@GOTPAGE
Lloh4:
ldr x9, [x9, _WINED3D_PSARGS_TEXTRANSFORM_MASK@GOTPAGEOFF]
Lloh5:
ldr w9, [x9]
and w23, w8, w9
sub x4, x29, #56
mov x1, x20
mov x2, x20
mov w3, #0
bl _shader_glsl_get_sample_function
ldur w0, [x29, #-56]
add x21, sp, #58
add x1, sp, #58
bl _shader_glsl_write_mask_to_str
Lloh6:
adrp x8, _WINED3D_PSARGS_PROJECTED@GOTPAGE
Lloh7:
ldr x8, [x8, _WINED3D_PSARGS_PROJECTED@GOTPAGEOFF]
Lloh8:
ldr w8, [x8]
Lloh9:
adrp x22, _WINED3DSP_WRITEMASK_1@GOTPAGE
Lloh10:
ldr x22, [x22, _WINED3DSP_WRITEMASK_1@GOTPAGEOFF]
tst w8, w23
b.eq LBB0_10
; %bb.1:
bic w8, w23, w8
sub w8, w8, #128
cmp w8, #4
b.hi LBB0_8
; %bb.2:
Lloh11:
adrp x9, lJTI0_0@PAGE
Lloh12:
add x9, x9, lJTI0_0@PAGEOFF
adr x10, LBB0_3
ldrb w11, [x9, x8]
add x10, x10, x11, lsl #2
br x10
LBB0_3:
Lloh13:
adrp x8, _WINED3DSP_WRITEMASK_3@GOTPAGE
Lloh14:
ldr x8, [x8, _WINED3DSP_WRITEMASK_3@GOTPAGEOFF]
b LBB0_5
LBB0_4:
Lloh15:
adrp x8, _WINED3DSP_WRITEMASK_2@GOTPAGE
Lloh16:
ldr x8, [x8, _WINED3DSP_WRITEMASK_2@GOTPAGEOFF]
LBB0_5:
ldr w0, [x8]
b LBB0_9
LBB0_6:
ldr w0, [x22]
b LBB0_9
LBB0_7:
Lloh17:
adrp x0, l_.str@PAGE
Lloh18:
add x0, x0, l_.str@PAGEOFF
bl _FIXME
LBB0_8:
mov w0, #0
LBB0_9:
add x23, sp, #40
add x1, sp, #40
bl _shader_glsl_write_mask_to_str
ldr x8, [x19, #8]
ldr w0, [x8]
Lloh19:
adrp x1, l_.str.1@PAGE
Lloh20:
add x1, x1, l_.str.1@PAGEOFF
str x23, [sp]
add x3, sp, #58
mov x2, x20
mov x4, x20
bl _shader_addline
LBB0_10:
ldr x1, [x19, #24]
Lloh21:
adrp x8, _WINED3DSP_WRITEMASK_0@GOTPAGE
Lloh22:
ldr x8, [x8, _WINED3DSP_WRITEMASK_0@GOTPAGEOFF]
Lloh23:
ldr w8, [x8]
ldr w9, [x22]
orr w2, w9, w8
add x3, sp, #64
mov x0, x19
bl _shader_glsl_add_src_param
Lloh24:
adrp x8, _WINED3DSP_NOSWIZZLE@GOTPAGE
Lloh25:
ldr x8, [x8, _WINED3DSP_NOSWIZZLE@GOTPAGEOFF]
Lloh26:
ldr w3, [x8]
ldr w8, [sp, #64]
str x21, [sp, #32]
stp w20, w8, [sp, #24]
str x21, [sp, #16]
str w20, [sp, #8]
Lloh27:
adrp x8, l_.str.2@PAGE
Lloh28:
add x8, x8, l_.str.2@PAGEOFF
str x8, [sp]
sub x2, x29, #56
mov x0, x19
mov x1, x20
mov x4, #0
mov x5, #0
mov x6, #0
mov x7, #0
bl _shader_glsl_gen_sample_code
ldr x8, [x19]
Lloh29:
adrp x9, _WINED3DSIH_TEXBEML@GOTPAGE
Lloh30:
ldr x9, [x9, _WINED3DSIH_TEXBEML@GOTPAGEOFF]
Lloh31:
ldr x9, [x9]
cmp x8, x9
b.ne LBB0_12
; %bb.11:
ldr x1, [x19, #24]
Lloh32:
adrp x8, _WINED3DSP_WRITEMASK_2@GOTPAGE
Lloh33:
ldr x8, [x8, _WINED3DSP_WRITEMASK_2@GOTPAGEOFF]
Lloh34:
ldr w2, [x8]
add x3, sp, #48
mov x0, x19
bl _shader_glsl_add_src_param
ldr x1, [x19, #16]
add x2, sp, #40
mov x0, x19
bl _shader_glsl_add_dst_param
ldr x8, [x19, #8]
ldr w0, [x8]
ldp w3, w2, [sp, #40]
; kill: def $w3 killed $w3 def $x3
sxtw x3, w3
ldr w4, [sp, #48]
Lloh35:
adrp x1, l_.str.3@PAGE
Lloh36:
add x1, x1, l_.str.3@PAGEOFF
stp x20, x20, [sp]
bl _shader_addline
LBB0_12:
ldr x0, [x19, #8]
sub x1, x29, #56
bl _shader_glsl_release_sample_function
ldp x29, x30, [sp, #128] ; 16-byte Folded Reload
ldp x20, x19, [sp, #112] ; 16-byte Folded Reload
ldp x22, x21, [sp, #96] ; 16-byte Folded Reload
ldp x24, x23, [sp, #80] ; 16-byte Folded Reload
add sp, sp, #144
ret
.loh AdrpLdrGot Lloh9, Lloh10
.loh AdrpLdrGotLdr Lloh6, Lloh7, Lloh8
.loh AdrpLdrGotLdr Lloh3, Lloh4, Lloh5
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.loh AdrpAdd Lloh11, Lloh12
.loh AdrpLdrGot Lloh13, Lloh14
.loh AdrpLdrGot Lloh15, Lloh16
.loh AdrpAdd Lloh17, Lloh18
.loh AdrpAdd Lloh19, Lloh20
.loh AdrpLdrGotLdr Lloh29, Lloh30, Lloh31
.loh AdrpAdd Lloh27, Lloh28
.loh AdrpLdrGotLdr Lloh24, Lloh25, Lloh26
.loh AdrpLdrGotLdr Lloh21, Lloh22, Lloh23
.loh AdrpAdd Lloh35, Lloh36
.loh AdrpLdrGotLdr Lloh32, Lloh33, Lloh34
.cfi_endproc
.section __TEXT,__const
lJTI0_0:
.byte (LBB0_3-LBB0_3)>>2
.byte (LBB0_3-LBB0_3)>>2
.byte (LBB0_4-LBB0_3)>>2
.byte (LBB0_6-LBB0_3)>>2
.byte (LBB0_7-LBB0_3)>>2
; -- End function
.comm _WINED3D_PSARGS_TEXTRANSFORM_SHIFT,4,2 ; @WINED3D_PSARGS_TEXTRANSFORM_SHIFT
.comm _WINED3D_PSARGS_TEXTRANSFORM_MASK,4,2 ; @WINED3D_PSARGS_TEXTRANSFORM_MASK
.comm _WINED3D_PSARGS_PROJECTED,4,2 ; @WINED3D_PSARGS_PROJECTED
.section __TEXT,__cstring,cstring_literals
l_.str: ; @.str
.asciz "WINED3D_TTFF_PROJECTED with WINED3D_TTFF_COUNT1?\n"
.comm _WINED3DSP_WRITEMASK_1,4,2 ; @WINED3DSP_WRITEMASK_1
.comm _WINED3DSP_WRITEMASK_2,4,2 ; @WINED3DSP_WRITEMASK_2
.comm _WINED3DSP_WRITEMASK_3,4,2 ; @WINED3DSP_WRITEMASK_3
l_.str.1: ; @.str.1
.asciz "T%u%s /= T%u%s;\n"
.comm _WINED3DSP_WRITEMASK_0,4,2 ; @WINED3DSP_WRITEMASK_0
.comm _WINED3DSP_NOSWIZZLE,4,2 ; @WINED3DSP_NOSWIZZLE
l_.str.2: ; @.str.2
.asciz "T%u%s + vec4(bumpenv_mat%u * %s, 0.0, 0.0)%s"
.comm _WINED3DSIH_TEXBEML,8,3 ; @WINED3DSIH_TEXBEML
l_.str.3: ; @.str.3
.asciz "%s%s *= (%s * bumpenv_lum_scale%u + bumpenv_lum_offset%u);\n"
.no_dead_strip _shader_glsl_texbem
.subsections_via_symbols
| AnghaBench/reactos/dll/directx/wine/wined3d/extr_glsl_shader.c_shader_glsl_texbem.c | anghabench |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _foo ## -- Begin function foo
.p2align 4, 0x90
_foo: ## @foo
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
.p2align 4, 0x90
LBB0_1: ## =>This Inner Loop Header: Depth=1
jmp LBB0_1
.cfi_endproc
## -- End function
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.globl _foo ; -- Begin function foo
.p2align 2
_foo: ; @foo
.cfi_startproc
; %bb.0:
LBB0_1: ; =>This Inner Loop Header: Depth=1
b LBB0_1
.cfi_endproc
; -- End function
.subsections_via_symbols
| the_stack_data/130634.c | stack |
.section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 4, 0x90 ## -- Begin function dm_init_rxpath_selection
_dm_init_rxpath_selection: ## @dm_init_rxpath_selection
.cfi_startproc
## %bb.0:
pushq %rbp
.cfi_def_cfa_offset 16
.cfi_offset %rbp, -16
movq %rsp, %rbp
.cfi_def_cfa_register %rbp
callq _ieee80211_priv
movq (%rax), %rax
movq _RT_CID_819x_Netcore@GOTPCREL(%rip), %rcx
cmpq (%rcx), %rax
jne LBB0_1
## %bb.2:
movq _CCK_RX_VERSION_2@GOTPCREL(%rip), %rax
jmp LBB0_3
LBB0_1:
movq _CCK_RX_VERSION_1@GOTPCREL(%rip), %rax
LBB0_3:
movl (%rax), %eax
movq _DM_RxPathSelTable@GOTPCREL(%rip), %rcx
movl %eax, 32(%rcx)
movq $0, 24(%rcx)
movq (%rcx), %rax
movq 8(%rcx), %rdx
movq 16(%rcx), %rcx
movl $50, (%rax)
movl $-64, (%rdx)
movl $100, (%rcx)
movl $50, 4(%rax)
movl $-64, 4(%rdx)
movl $100, 4(%rcx)
movl $50, 8(%rax)
movl $-64, 8(%rdx)
movl $100, 8(%rcx)
movl $50, 12(%rax)
movl $-64, 12(%rdx)
movl $100, 12(%rcx)
popq %rbp
retq
.cfi_endproc
## -- End function
.comm _RT_CID_819x_Netcore,8,3 ## @RT_CID_819x_Netcore
.comm _CCK_RX_VERSION_2,4,2 ## @CCK_RX_VERSION_2
.comm _DM_RxPathSelTable,40,3 ## @DM_RxPathSelTable
.comm _CCK_RX_VERSION_1,4,2 ## @CCK_RX_VERSION_1
.no_dead_strip _dm_init_rxpath_selection
.subsections_via_symbols
| .section __TEXT,__text,regular,pure_instructions
.build_version macos, 13, 0 sdk_version 13, 3
.p2align 2 ; -- Begin function dm_init_rxpath_selection
_dm_init_rxpath_selection: ; @dm_init_rxpath_selection
.cfi_startproc
; %bb.0:
stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
.cfi_def_cfa_offset 16
mov x29, sp
.cfi_def_cfa w29, 16
.cfi_offset w30, -8
.cfi_offset w29, -16
bl _ieee80211_priv
ldr x8, [x0]
Lloh0:
adrp x9, _RT_CID_819x_Netcore@GOTPAGE
Lloh1:
ldr x9, [x9, _RT_CID_819x_Netcore@GOTPAGEOFF]
Lloh2:
ldr x9, [x9]
Lloh3:
adrp x10, _CCK_RX_VERSION_2@GOTPAGE
Lloh4:
ldr x10, [x10, _CCK_RX_VERSION_2@GOTPAGEOFF]
Lloh5:
adrp x11, _CCK_RX_VERSION_1@GOTPAGE
Lloh6:
ldr x11, [x11, _CCK_RX_VERSION_1@GOTPAGEOFF]
cmp x8, x9
csel x8, x10, x11, eq
ldr w8, [x8]
Lloh7:
adrp x9, _DM_RxPathSelTable@GOTPAGE
Lloh8:
ldr x9, [x9, _DM_RxPathSelTable@GOTPAGEOFF]
str w8, [x9, #32]
str xzr, [x9, #24]
ldp x8, x10, [x9]
ldr x9, [x9, #16]
mov w11, #50
str w11, [x8]
mov w12, #-64
str w12, [x10]
mov w13, #100
str w13, [x9]
str w11, [x8, #4]
str w12, [x10, #4]
str w13, [x9, #4]
str w11, [x8, #8]
str w12, [x10, #8]
str w13, [x9, #8]
str w11, [x8, #12]
str w12, [x10, #12]
str w13, [x9, #12]
ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
ret
.loh AdrpLdrGot Lloh7, Lloh8
.loh AdrpLdrGot Lloh5, Lloh6
.loh AdrpLdrGot Lloh3, Lloh4
.loh AdrpLdrGotLdr Lloh0, Lloh1, Lloh2
.cfi_endproc
; -- End function
.comm _RT_CID_819x_Netcore,8,3 ; @RT_CID_819x_Netcore
.comm _CCK_RX_VERSION_2,4,2 ; @CCK_RX_VERSION_2
.comm _DM_RxPathSelTable,40,3 ; @DM_RxPathSelTable
.comm _CCK_RX_VERSION_1,4,2 ; @CCK_RX_VERSION_1
.no_dead_strip _dm_init_rxpath_selection
.subsections_via_symbols
| AnghaBench/linux/drivers/staging/rtl8192u/extr_r8192U_dm.c_dm_init_rxpath_selection.c | anghabench |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.